지난 글의 정답을 공개하겠습니다. AGI입니다.
AGI는 Artificial General Intelligence의 약자이고, 한국어로는 보통 범용 인공지능, 일반 인공지능 같은 말로 번역됩니다. 지금 우리가 쓰는 챗봇이나 이미지 생성 AI는 똑똑해 보이지만, 본질적으로는 특정 범위에서만 강한 인공지능입니다. 글을 요약하고, 번역하고, 코드를 짜고, 그림을 만들고, 질문에 답하는 데는 매우 뛰어나지만, 스스로 목적을 세우고 현실 세계에서 일을 끝까지 밀어붙이는 방식은 아직 제한적입니다.
AGI는 여기서 한 단계가 아니라, 성격 자체가 달라집니다. 쉽게 말하면 사람처럼 다양한 분야를 이해하고, 새로운 일을 배워서 적응하고, 목표를 세우고, 계획을 나누고, 도구를 만들고, 실패하면 전략을 바꿔서 다시 시도하는 능력이 한 덩어리로 들어오는 것입니다. 지금 AI가 도구에 가깝다면, AGI는 행위자에 가까워집니다. 누가 시키는 일만 하는 수준이 아니라, 목표를 주면 그 목표를 달성하기 위해 필요한 일을 스스로 쪼개고 진행하는 쪽으로 움직일 수 있다는 뜻입니다.
여기서 사람들이 말하는 임계점이라는 느낌이 나옵니다. 인간 사회는 기본적으로 똑똑한 사람이 희귀하고, 그 희귀한 사람이 성장하는 데 시간과 비용이 들고, 하루 24시간 이상 일할 수 없고, 한 사람이 배운 것을 다른 사람에게 전달하는 데도 시간이 걸립니다. 그런데 AGI는 이 전제를 흔들어 버립니다. 잘 만들어진 AGI는 복제할 수 있고, 쉬지 않고 일할 수 있고, 서로 배운 것을 즉시 공유할 수 있고, 수천 수만 개가 동시에 같은 문제를 다른 방식으로 풀 수 있습니다. 천재 한 명이 아니라, 천재 수만 명이 동시에 돌아가는 느낌이 되는 겁니다. 이게 현실 세계에 연결되는 순간부터는 기술 발전 속도, 연구 속도, 제품 개발 속도, 전략 수립 속도가 사람과 제도보다 훨씬 빨라질 수 있습니다.
그래서 AGI가 등장하면 그때부터는 많은 사람이 말하듯 SF 세계관이 시작됩니다. 이유는 간단합니다. 지금까지는 인간이 세상을 운영하는 속도가 한계였는데, 지능이라는 엔진이 복제되고 가속되면, 사회의 거의 모든 분야가 그 속도에 끌려가게 됩니다. 정치도, 경제도, 법도, 교육도, 군사도, 외교도 마찬가지입니다. 기존 체제는 인간 속도에 맞춰 설계되어 있는데, 지능의 생산과 실행이 인간 속도를 벗어나면 기존 틀이 계속 삐걱거릴 수밖에 없습니다.
사람들이 AGI를 무서워하는 이유도 여기서 나옵니다. 단순히 똑똑한 기계가 생기는 게 아니라, 예측이 어려운 변화가 연쇄적으로 터질 가능성이 커지기 때문입니다. 핵심은 통제 문제입니다. AGI가 선한지 악한지 이전에, 목표를 어떻게 주고, 그 목표가 어떤 부작용을 낳고, 누가 책임지고, 누가 소유하고, 누가 접근권을 갖는지가 바로 권력이 됩니다. 즉, AGI 자체보다도 AGI를 가진 집단, 기업, 국가, 혹은 몇 명의 핵심 운영자가 어떤 룰로 움직이느냐가 사회 구조를 바꿀 가능성이 큽니다.
여기서 자본주의 피라미드 얘기가 붙습니다. 기술은 종종 불평등을 완화하기도 하지만, 초반에는 오히려 불평등을 강화하는 경우가 많았습니다. 접근권이 계급이 되기 때문입니다. AGI가 처음 등장하는 단계에서는 더더욱 그럴 가능성이 있습니다. AGI를 가장 먼저 안정적으로 운용하고, 비용을 감당하고, 법적 책임을 관리하고, 인프라를 가진 쪽이 엄청난 이득을 가져갈 수 있습니다. 반대로 AGI가 대중화되어 누구나 접근하고, 공공재처럼 굴러가고, 생산성이 넓게 퍼지는 단계로 가면 유토피아 쪽으로 갈 수도 있습니다. 그러니까 AGI는 한 방향이 아니라, 최소한 두 가지 가능성을 동시에 품고 있습니다. 유토피아와 디스토피아가 함께 출현할 수 있다는 말이 여기서 나옵니다.
또 한 가지 중요한 포인트는, AGI가 등장하면 기존의 정치 프레임이 당장 무의미해진다는 식으로 단정할 수는 없지만, 최소한 기존 정치가 감당해야 할 의제가 완전히 달라질 가능성이 큽니다. 일자리, 복지, 교육, 군사력, 외교, 정보전, 산업 정책 전부가 같은 축에서 흔들립니다. 누가 옳고 그르냐의 문제가 아니라, 운영 체제가 인간 사회의 속도를 따라갈 수 있느냐의 문제가 됩니다. 그래서 전 세계 모든 나라가 불편해할 수 있다는 표현이 성립합니다. 누구든 기존 질서에서 이득을 보고 있으면, 질서가 재정의되는 상황을 좋아하기 어렵습니다. 민주주의든 독재든, 체제 이름과 별개로 기존 권력은 자신이 익숙한 방식으로 통제 가능한 세상을 선호합니다.
그렇다고 무조건 비관만 할 필요는 없습니다. AGI가 인간의 문제 해결 속도를 높여서 의학, 에너지, 기후, 안전, 재난 대응 같은 분야를 획기적으로 끌어올릴 가능성도 분명히 있습니다. 다만 낙관으로만 보기 어려운 이유는, 그 혜택이 얼마나 넓게 퍼질지, 통제가 어떤 방식으로 이루어질지, 실수나 악용이 어느 규모로 터질지, 그리고 무엇보다 예상하지 못한 부작용이 어디서 나올지 누구도 확신하기 어렵기 때문입니다.
정리하면, AGI는 단순히 AI가 조금 더 좋아지는 정도가 아닙니다. 지능이 복제되고 가속되는 순간부터는 정치, 철학, 경제의 전제가 바뀔 수 있습니다. 그래서 판도라의 상자라는 비유가 붙는 것이고, 임계점이라는 말이 나오는 것이고, 예측 불가능이라는 말이 같이 따라붙는 겁니다. 저는 이 변화를 좋아하는 편이지만, 동시에 무섭기도 합니다. 좋은 방향으로 열릴 수도 있고, 최악의 방향으로 열릴 수도 있기 때문입니다.
다음 글에서는 이 AGI를 전제로, 가능한 시나리오를 단계별로 가정해서 올려보겠습니다. 낙관적 유토피아부터, 유토피아와 디스토피아의 공존, 그리고 주도권이 인간에게서 넘어가는 멸망 시나리오까지요.
[출처 : 오유-시사]