[기고] 현실로 다가온 인공지능(AI) 시대, 기술만큼 제도 안착과 윤리 담보를
2024-05-09 박근종 성북구도시관리공단 이사장
매일일보 | 영화 속 미래의 일이라고 상상으로만 여겨졌던 인공지능(AI │ Artificial Intelligence) 시대가 성큼 다가와 현실이 됐다. AI가 사람 대신 뛰어드는 영역은 생각보다 훨씬 빠르게 넓어지고 있다. AI가 사람보다 더 뛰어나게 정보를 찾고 보고서를 만들어낸다. 명령어 몇 마디만 있으면 순식간에 시와 소설은 물론 그림까지 그린다. 사람들은 시, 소설, 보고서 등 글쓰기, 그림 그리기, 알고리즘 코딩 등 창작의 세계가 그동안 인간에게만 허락된 별도의 특별 영역이라 알고 있었다. 그런데 AI의 발전과 함께 이제는 진화한 생성형 인공지능(Generative AI)이 스스로 창작의 영역을 넘보는 시대가 되었다. 공상과학으로 생각하던 영역이 어느덧 성큼 현실로 다가온 느낌이다. 이러다가 인간의 영역이 점차 사라지는 것 아닌가 하는 섬뜩한 걱정마저 든다.
미국 인공지능 기업 ‘오픈AI’가 지난해 11월 공개한 ‘챗 GPT(Chat Generative Pre-trained Transformer)’ 열풍으로 글로벌 빅테크(Big-tech) 기업의 인공지능(AI) 기술 경쟁에 가속도가 붙었다. 대화형 챗봇 ‘챗 GPT’를 필두로 세계 곳곳에서 다양한 형태의 초거대 AI들이 출몰하고 있다. 나날이 발전하고 있는 컴퓨팅 파워와 전문가조차도 이해하기 어렵다는 ‘딥러닝((Deep Learning │ 심층학습)’ 기법의 진화 덕분이다. AI의 구루이자 세계적인 미래학자인 레이 커즈와일(Raymond Kurzweil)은 그의 저서 ‘특이점이 온다(The Singularity is near │ 2005)’에서 “곧 인간 지성을 뛰어넘는 인공지능 초지성이 나타난다.”라고 예측하고 그 특이점의 시기는 2045년 전후로 규정했는데 그 첫 번째 논거는 향후 혁명적인 변화가 일어날 세 가지 분야 이른바 ‘GNR’로 유전학(Genetics), 나노기술(Nanotechnology), 인공지능 로봇공학(Robotics)이 중첩, 융합되면서 나타나는 ‘기술혁명’과 두 번째 논거로는 18개월을 주기로 컴퓨터 메모리 칩 성능이 두 배로 향상된다는 이른바 ‘무어의 법칙’에 영감을 받아서, 첨단기술의 기하급수적 성장법칙이 정보기술 분야에 전방위적으로 전용된다는 ‘기술 가속의 법칙’을 제시했다. 사실 그의 책은 2005년, 다시 말해 18년 전에 출판된 셈인데, 대화형 인공지능 서비스인 챗GTP 등장은 그가 예측한 시기보다는 훨씬 빨랐지만 이를 떠나서 다시 주목받는 것을 보면 놀라운 통찰력이 아닐 수 없다. 인지과학자 게리 마커스(Gary Marcus) 뉴욕대 심리학과 신경과학 교수와 어니스트 데이비스(Ernest Davis) 뉴욕대 컴퓨터과학 교수의 공저 ‘2029 기계가 멈추는 날’에서 저자들은 기존 딥러닝 방식에서 벗어나 새롭게 AI에 인간의 뇌가 가진 상식과 추론 능력인 ‘딥언더스탠딩(Deep Understanding)’을 부여하는 방향으로 접근해야만 한다고 주장한다. 인간이 정보를 흡수하고 상관관계를 파악해 관계를 인식하는 방식을 AI에 적용해야 한다는 것으로 AI에 인간의 지식체계에 근간이 되는 시간, 공간, 인과성이라는 세 개념을 접목해야 한다고 주장한다. 엄청난 속도와 양의 학습으로 딥러닝 기반 AI는 인간이 할 수 없는 일을 해냈다. 문제는 인간 세상을 움직이는 열린계(Open System)의 복잡한 매개변수 데이터가 없거나 학습하지 못하면 전혀 대응할 수 없다는 것이다. 2029년, 기계가 인간을 초월하는 특이점(Singularity │ 어떤 대상이 폭발적으로 확장되고 발전되는 시작점)은 기계가 인간이 되는 조건을 만들 때 비로소 다가올 것이라 보고 있다. ‘챗GPT 시대’라고 해도 과언이 아닐 정도로 일상생활 곳곳에서 챗GPT가 위력을 발휘하고 있다. AI가 쓰는 논문, AI가 쓰는 소설, AI가 그리는 그림, AI가 말하는 성우, 등 사람의 머리와 손에서 나오던 창작물들이 이제는 컴퓨터를 통해 나오고 있다. 사람이라면 몇 시간, 며칠에 걸쳐 나올 작업물들이 이제는 빠르면 5분, 길어도 한 시간이면 뚝딱 나올 정도다. 컴퓨터를 잘 다룬다면 그 시간은 점점 더 짧아져 간다. 사람이 하루에 하나를 그렸다면, 이제 컴퓨터로는 하루에 50개도 100개도 그리는 시대가 온 것이다. 기업에서 AI를 쓰게 되면 시간도 절약되고, 인건비도 줄일 수 있고 여러모로 사람을 쓰는 것보다도 훨씬 더 이익이 크다. 비용 대비 고효율을 바라는 기업이라면 AI를 마다하지 않는다. 일반 사용자도 마찬가지다. 대화형 인공지능 서비스인 챗GTP는 사용자가 어떤 질문을 하고, 어떤 상황을 만들든 그에 맞도록 대답하고 이후의 상황까지 만들어 준다. 특정 캐릭터를 선택하면 마치 그 캐릭터와 실제로 대화하는 기분을 느낄 수 있다. 이렇듯 AI 생성기에 어떤 미션을 주든 결과물을 손쉽게 낼 수 있기에 AI는 너무나도 편리한 시스템이어서 그 자체만으로도 각광을 받기에 충분하고도 남음이 있다. 그러나 볕이 든 곳엔 반드시 그늘도 존재하는 법이 세상이 이치다. AI가 만들어낸 동영상 속에는 진짜와 구분이 안 될 정도로 똑같은 특정 인물이 위험한 발언을 쏟아낸다. AI로 목소리를 복제한 보이스피싱 피해 사례도 늘고 있다. 아들·딸과 똑같은 목소리의 전화가 걸려와 급하게 돈을 보내 달라면 속지 않을 사람이 얼마나 될지도 의문이 든다. 더 큰 문제는 AI가 시스템에 파고들어 전력이나 교통 등 공공기능을 교란할 위험까지 우려된다는 점이다. 또한, 컴퓨터가 부지런해질수록 사람은 자연히 게을러지고, 무신경해지며, 무감각해진다. AI에는 사실 저작권이라는 치명적인 단점이 있지만 당장 AI가 생산해 내는 엄청난 결과물들에 사람들은 막상 정신을 못 차리고 감동할 수밖에 없다. 인간이 외로울 때 사람보다 인공지능을 먼저 찾는 시대가 올 것 같다. 실제로 사람들은 이제 인공지능과 대화하며 위로를 받고자 한다. 이미 챗GPT는 이런 초보적 역할을 충분히 하고 있다. 전문가 못지않은 심리상담 결과물도 내놓는다. 이런 세상이 본격화되면 우리는 사회적 존재로서 인간성을 유지할 수 있을지조차도 의문스럽다. 급기야 AI 전문가들까지 ‘미래의 충격’을 염려하고 나서기 시작했다. 인공지능(AI) 분야의 ‘대부’로 불리는 제프리 힌턴(Geoffrey Hinton) 캐나다 토론토대 교수가 구글에서 퇴사한다고 지난 5월 1일(현지 시각) 뉴욕타임스(NYT)가 보도했다. ‘딥러닝’ 개념을 만들어 AI 개발에 크게 이바지한 인물로 평가받는 힌턴 교수는 30여 년간 AI 개발에 전념했던 걸 후회한다고 NYT와의 인터뷰에서 털어놨다. 이어 “AI에 대해 자유롭게 비판하기 위해 구글을 떠날 것을 결심했다.”라고 전했다. 힌턴 교수는 ‘AI 킬러로봇’의 등장이 두렵다고도 했다. 그는 AI가 방대한 양의 데이터를 분석하면서 ‘예상치 못한 행동’을 학습하는 경우가 많기에 인류에게 위협이 될 수 있다고 우려했다. AI 시스템이 자체적으로 컴퓨터 코드를 생성할 뿐만 아니라, 그 코드를 스스로 실행하도록 허용하면 문제를 일으킬 수 있다는 지적이다. 진정한 의미의 ‘자율무기’ 또는 ‘킬러 로봇’이 현실화할 수 있다는 경고다. 오픈AI 공동 설립자이자 테슬라와 스페이스X의 창업자인 일론 머스크(Elon Musk)도 “AI에 대한 선의의 의존도 인류 문명에 위협이 될 수 있다.”라고 말했다. 그는 지난 3월 AI업계 유명 인사들과 함께 “최첨단 AI 시스템의 개발을 최소 6개월간 중단하자”라는 공개 성명서를 내기도 했다. AI의 발전은 지금까지의 법과 제도의 변화까지 요구하고 있다. AI가 만든 창작물의 저작권 문제, 자율주행차 교통사고 때 책임 및 보상 체계, 세금 부과 등 그간 생각지 못했던 것들이 하나둘이 아니다. 빌 게이츠(Bill Gates) 마이크로소프트(MS) 창업자가 최근 일론 머스크를 비롯해 인공지능(AI) 전문가 등이 “AI가 인류에 심각한 위험이 될 수 있다.”라며 최첨단 AI의 개발을 일시 중단하자고 촉구한 데 관련해 “문제를 해결하지 못할 것”이라고 주장했다. 게이츠는 지난 5월 3일(현지 시각) 한 외신과의 인터뷰에서 “특정 단체가 개발을 일시 중단하자고 요청한다고 해서 문제가 풀릴 것으로 생각하지 않는다.”라면서 이렇게 말했다. 그는 AI의 발전을 최선으로 활용하는 방안에 초점을 맞추는 것이 바람직하다면서 전 세계적으로 어떻게 개발 중단을 하겠다는 것인지 이해할 수 없다고 말했다. 2018년 GPT1이 나온 이후 챗GPT에 적용된 GPT3.5까지 획기적인 기술 개선이 이어졌다. 초기 GPT가 ‘아무 말이나 대잔치’ 수준이었던 데 비해 챗GPT는 대화 내용을 기억하고 문제 해결 능력을 갖추도록 추가 학습이 이뤄졌다. 딥러닝을 통해 사람이 좋아하는 대화를 연습한 것이다. 이렇게 배울 수 있는 능력 자체가 충격적이다. 창의적 글쓰기나 영어 문장 교정, 공공 문서 작성 등에 활용하면 최적의 성과를 거둘 수 있을 것이다.” 하지만 인간이 하나를 배우면 열을 아는 것은 일반화의 능력이 우수한 데 반해 AI는 얼핏 일반화 능력이 있는 것처럼 보이지만 실은 그렇지 않다. 방대한 문장을 학습한 덕에 단어 간 연관 관계를 따져 유창한 말을 만들어 낼 수 있으나 정보의 진실성까지 보장하는 것은 아니다. 챗GPT가 스스로 만든 지식에 과도한 신뢰를 보내는 환각(Hallucination │ 할루시네이션) 현상은 매우 위험한 단점이다. 데이터에 내재한 편견과 차별이 알고리즘(Algorism)과 AI 시스템으로 전이돼 불공정한 결과를 일으키는 점도 한계다. AI는 지금까지의 기술뿐 아니라 인류의 삶조차도 바꿔놓을 수 있는 강력한 ‘파괴적 기술(Destructive technology)’로 평가받고 있다. AI 기술이 도약점을 넘어 특이점(Singularity)을 향해 치닫고 있는 지금은 AI의 대장정에 합류하지 않으면 철저한 AI 종속국가로 전락할 수밖에 없는 엄중한 시간대이다. 최근 수년간 주요 대기업들이 앞다퉈 초거대 AI를 만들고, 주요 대학에 인공지능대학원을 설립하는 등 애쓰고 있지만, 미국·중국 등 AI 강대국의 수준에는 미치지 못하는 게 현실이다. 국가·사회 자산의 선택과 집중을 통해서 AI 기술발전과 더불어 미래를 맞이할 관련 제도의 개선, 이를 위한 공감대를 갖춰 나가야 할 중요한 시점이다. 물론, 인공지능이 계속 발전하면서 많은 일자리가 사라질 것이란 우려가 크다. 기술 혁신이 인간의 일자리를 빼앗을 것이란 불안감이 현실로 닥쳐온 것이다. 세계경제포럼(WEF)은 최근 인공지능의 등장으로 2027년까지 5년 동안 기존 글로벌 일자리의 23%가 구조적 변화를 겪을 것으로 전망했다. 기존 일자리 8,300만 개가 없어지고 신규 일자리 6,900만 개가 새로 생겨 전체적으로는 1,400만 개가 줄어들 것이란 암울한 전망이다. IBM은 최근 업무지원 인력 30%를 AI로 대체하겠다는 계획을 공개했고 골드만삭스도 챗GPT와 같은 생성형 AI가 3억 개에 달하는 세계 정규직 일자리를 대체할 것으로 전망했다. 하지만 AI 발전으로 대량 실업이 초래될 것이란 걱정은 지나친 기우다고 보는 시각도 많다. 과거 기술발전 과정을 돌이켜보면 자동화된 직군에서 오히려 일자리가 더 늘어난 사례가 적지 않았기 때문이다. 기업들은 4차 산업혁명 시대에 맞는 새로운 인재를 필요로 하지만 학교 교육이 낡은 시스템에서 벗어나지 못하다 보니 구인과 구직 간의 일자리 미스매치(Mismatch)는 여전히 심각하다. 이제는 일자리를 AI에 빼앗길 것을 걱정하기보다 AI를 이용해 생산성과 근로환경의 질을 높일 창의적이고 혁신적인 생존방안을 모색할 필요가 있다. AI는 인간에게 도움을 주는 이기(利器)도 될 수 있고 흉기(凶器)도 될 수 있다. 중요한 것은 발전된 기술만큼 제도의 조기 안착과 윤리의 확실한 담보가 강구되어야 한다. 인류의 이기(利器)로만 사용하려는 도덕적·윤리적 의지에 달렸다는 명료한 의식과 건강한 사고로 인간을 위한 순기능 기술로만 살아 숨 쉬도록 노력해야만 한다. 특히 기후변화 대응, 전염병 예방, 재난 방지 등 글로벌 난제 해결과 공익 제고 목적에 적극적으로 활용하는 방안을 모색해야만 한다. 그러기 위해선 AI 기술에 대한 통제를 놓쳐선 안 되며 도덕적·윤리적 사용에 대한 깊은 성찰과 결연한 각오도 강력히 요구된다. 박근종 성북구도시관리공단 이사장 / 서울시자치구공단이사장연합회 회장