안녕하세요!
오늘은 최근 이슈가 되었던 하이퍼클로바와, OpenAI에서 개발된 GPT3에 대한 얘기를 해보려 합니다.
현재도 많은 분야에서 인공지능 기술이 활용되며, 다양한 곳에서 인간의 능력을 초월하는 성능을 보여주고 있습니다. 특히, 컴퓨터 비전분야에서의 약진이 두드러지게 나타나고 있습니다.
예를 들어, 폐와 유방의 CT, X-ray 사진을 보고 폐암 혹은 유방암 등의 질병 발병 유무를 판단하는 루닛(lunit) 의 제품들은 이미 전문의가 사진을 보고 판독할 때보다도 더 높은 진단 성능을 보이고 있으며, 스마트 팩토리라는 컨셉 하에서 사용되고 있는 비전(Vision) 검사 시스템 또한 숙련된 전문가들의 능력을 더 높은 성능으로, 더 경제적으로 대체하고 있습니다.
위와 같이, 현재 산업계에선 특정 작업만 전문적으로 대체하기 위한 시스템들이 주로 사용되고 있고, 이는 Narrow AI (좁은 인공지능) 으로 여겨집니다.
범용 인공지능 (Artificial General Intelligence) 이란 무엇일까요?
Narrow AI와 반대되는 개념을 가진, 많은 사람들이 보편적으로 생각하는, 다양한 업무를 할 수 있고 진짜 인간처럼 판단을 할 수 있는 인공지능을 Artificial General Intelligence (AGI), 범용 인공지능이라고 합니다. 마치 영화속에 나오는 인공지능 로봇들처럼, 단순히 특정한 작업에 대한 수행만을 위한 인공지능 장치가 아닌, 인간을 대하는 것 같은, 토니 스타크의 자비스 같은 존재를 뜻하는 용어입니다.
하지만 예상 가능하듯이, 일반적인 딥러닝 시스템에 비해 훨씬 더 다양한 역할을 수행할 수 있어야하고, 다양한 상황에 맞는 복잡한 생각이 가능해야하기 때문에, 시스템을 위한 인공지능 모델의 크기는 커져야하고, 그로 인해 많은 컴퓨팅 자원이 필요했습니다.
불과 몇년 전까지만 하더라도 이는 불가능에 가까운 영역이었지만, 엄청난 속도의 하드웨어 개발 그리고 대규모 딥러닝 모델 학습을 위한 시스템이 개발되며 점차 현실에 가까워지고 있습니다.
이에 대해 최근 몇몇의 연구들이 있었고, 그 중 대표적인 예시로, 일론 머스크의 인공지능 연기 기업인 OpenAI의 GPT3와 우리나라 기업인 네이버의 하이퍼클로바 (HyperCLOVA)에 대한 설명을 잠시 해보려 합니다.
범용 인공지능 시대의 서막을 알린 OpenAI의 GPT3
OpenAI라는 회사는 테슬라로 더 잘 알려진 일론 머스크가 그의 동료와 함께 2015년에 설립한 인공지능 회사입니다. 짧은 역사를 가지고 있지만, 엄청난 자본력과 정보를 공개하여 인공지능의 발전에 기여한다는 취지로, 단기간에 엄청난 연구 성과들을 선보인 회사입니다.
대표적인 연구예시로 GPT로 네이밍된 연구들이 있는데요, 지금 소개해드리는 GPT3는 GPT 인공지능 모델의 세번째 버전에 해당합니다. 무려 1,750억개에 달하는 파라미터수 (인공지능 모델의 크기를 나타낼 수 있는 지표) 를 가지고 있는 이 거대한 모델은 자연어 처리 시스템의 일환으로 각종 언어관련 문제들을 비롯해, 주어진 상황에 맞는 코딩까지 가능한 성능을 보여줘 전세계에 큰 충격을 가져다준 모델입니다.
2015년에 개최된 ILSVRC (ImageNet Large Scale Visual Recognition Challenge, 이미지 인식 대회) 에서 처음으로 인간의 성능을 능가한 ResNet 모델이 그 당시 6000만개 정도의 파라미터 수를 가지고 있었는데, 2000억개면 얼마나 큰 사이즈인지 짐작이 가시는지요!...
이러한 범용 인공지능 모델의 기본적인 컨셉은, 아주 거대한 모델에 아주 많은 리소스를 투입하여 아주 많은 데이터로부터 학습을 하는 것입니다.
모델의 사이즈가 큰 만큼 학습시키는데 비용도 아주 많이 들었고, 위키 백과 전문을 비롯한 수많은 자연어 데이터를 통해 학습을 했습니다. 여기서 학습에 사용한 데이터의 많은 부분은 특정 label(라벨)이 붙어있지 않은, 일반적으로 접할 수 있는 말 뭉치들을 사용했는데, 이 과정에서 GPT3는 언어의 문맥을 비롯한 보편적인 지식의 학습이 가능했다고 알려져있습니다.
GPT3는 이렇게 자연스럽고 전문지식이 포함된 대화는 물론이고,
주제만 던져주면 글도 척척 써내며,
심지어는 자연어로 입력된 사람의 요구조건에 맞는 코드까지 직접 만들어내는 모습을 보였습니다!!
하지만, 불과 몇년 전까지만 하더라도 범용 인공지능은 현실적으로 불가능한 영역의 도전이었습니다. 하지만 GPU를 비롯한 하드웨어 성능의 급격한 발전 덕분에 GPT3 정도 사이즈의 인공지능 모델에 대한 연구가 가능해졌습니다. 하지만 여전히 많은 자원을 필요로 하기 때문에 풍부한 자본력을 바탕으로 한 기업들을 위주로 진행되게 되었고, 다음으로 소개해드릴 네이버의 하이퍼클로바 또한 그 중 하나입니다.
우리나라 기업의 범용 인공지능, 네이버의 하이퍼클로바 (HyperCLOVA)
지난 5월 25일, 네이버의 자회사인 클로바 CIC 에서 '하이퍼클로바 (HyperCLOVA)' 라는 인공지능을 발표했습니다. 하이퍼클로바는 2,040억개의 매개변수(파라미터)수를 가진, GPT3보다 큰 사이즈의 초 대규모의 인공지능 모델입니다. 이러한 하이퍼클로바는 50년치의 한국어 뉴스로부터 학습을 하며, GPT3처럼 번역, 요약부터 시작하여 상황을 주어주면 코드를 작성해줄 수도 있는 다양한 분야의 작업에 사용될 수 있습니다.
하이퍼 클로바 또한, 특정한 작업만을 위한 인공지능 모델이 아닌, 위에서 언급했던 범용 인공지능 (AGI) 의 모습에 더 가까운 형태라고 말할 수 있습니다!
GPT3를 비롯하여 대부분의 인공지능 연구들, 자연어 처리 분야의 인공지능 모델들은 영어 데이터를 기반으로 학습된 경우가 대부분이었지만, 하이퍼클로바는 한국어 데이터를 사용해 학습하여, 한국어를 기반으로 아주 높은 수준의 자연어 처리가 가능해진 범용 인공지능이라는 것이 아주 큰 특징입니다. 단순히 한국어에 특화되어 좋다기보다 자연어 처리 분야에서 하나의 연구의 방향성으로서, 한국어로도 이 정도로 높은 수준의 인공지능 모델을 만들어낼 수 있다! 라는 가능성을 보여준 연구이기도 합니다 ㅎㅎ
범용 인공지능의 위험성과 한계
위의 사진처럼, GPT3는 '정말 이걸 인공지능이 했다고?' 라는 반응이 나올 정도로 충격적인 성능을 보여주었습니다. 물론 인공지능 기술의 발전 방향성을 봤을 땐 앞으로 인공지능 기술이 나아가야할 방향이라고 생각되지만, 기술이 점차 발전되면서 상상으로만 했던 걱정들을 진짜로 해야하는 순간도 동시에 다가오고 있습니다.
사용자가 원하기만 하면 무수히 많은 페이크 뉴스를 만들어낼 수도 있으며, 학습에 사용된 데이터가 편향된 데이터였다면, 학습된 인공지능 모델 또한 편향될 수 밖에 없습니다.
사람을 닮은 인공지능을 원했지만, 아직까진 인공지능은 사람과는 구별되는 존재여야 하는 것 같습니다.
사실 이 문제는 좀 더 철학적이고, 인간의 근원적인 문제에 가까워지기 때문에, 기술의 발전 속도에 맞춰 더 깊은 고민이 필요한 시점이 되지 않았나 하는 생각이 듭니다.
물론 기술 그 자체로서 아직 더 해결해야할 문제들도 많습니다.
- 텍스트에서 얻은 지식만으로는 '보편적이다'고 할 수 있는 지식을 얻진 못하였고
- 모든 분야에서 뛰어난 것도 아니며
- 애초에 인간의 학습 방식과도 차이가 있기에 정말로 'General Intelligence'라고 말하긴 힘든 부분도 있습니다.
- 또한, 최근에는 의료 분야에서 추가로 GPT3 성능의 한계가 들어나기도 했습니다.
자연어 처리 시스템의 일종으로서 그 성능을 생각하자면 놀랄만큼, 말도 안될만큼의 발전된 모습을 보여줬긴 하지만, 좀 더 깊게 생각했을 땐 범용 인공지능 연구의 방향성을 눈으로 보여주고 다른 기업들로 하여금 함께 인공지능 분야를 이끌어나가게 할 수 있는 촉진제 역할을 할 수 있는 것이 더 크지 않냐는 생각이 듭니다.
이번 글을 통해 범용 인공지능에 대해 알아보았습니다 ㅎㅎ 다음번에 더 좋은 글로 돌아오겠습니다.
감사합니다!