인공지능(AI) 기술의 현재와 미래에 대한 그의 견해
안녕하세요! 오늘은 정말 흥미로운 주제에 대해 이야기해보려고 합니다. 바로 AI 시대의 선두에 서 있는 오픈AI의 샘 알트만(Sam Altman)과 TED의 크리스 앤더슨(Chris Anderson)이 나눈 깊이 있는 대화인데요. AI의 현재와 미래, 그리고 우리가 마주할 도전들에 대해 솔직하게 이야기하는 자리였습니다. 이 대화 내용을 바탕으로 몇 가지 핵심 포인트를 블로그 스타일로 풀어보겠습니다.
경이로운 속도로 진화하는 AI 모델들
오픈AI는 정말이지 놀라운 속도로 새로운 모델들을 선보이고 있습니다. 최근 등장한 **’소라(Sora)’**는 텍스트 설명을 바탕으로 이미지와 영상을 생성하는 AI인데요. 단순히 이미지를 만드는 것을 넘어, 샘 알트만은 이것이 모델 전체가 가진 핵심 지능과 연결되어 가능하다고 설명합니다. 새로운 이미지 생성 모델은 GPT-4.5에 포함되며, GPT-4.5가 가진 모든 지식을 품고 있다는 거죠. 또한, AI의 글쓰기 실력은 아주 세밀한 면에 있어서도 새로운 차원으로 발전하고 있다고 합니다. 찰리 브라운이 자신을 AI라고 생각하는 모습을 묘사한 답변은 정말 심오하게 느껴질 정도였다네요.
AI, 일자리를 위협할까 아니면 기회를 줄까?
많은 사람들이 AI가 자신의 직업을 대체할까 봐 걱정합니다. 샘 알트만은 이런 걱정이 일어나는 것은 자연스럽지만, 역사적으로 다른 기술 혁명들이 그랬듯, AI를 통해 개인의 역량이 크게 향상되어 오히려 새로운 기회를 잡을 수 있다는 두 가지 반응이 있다고 말합니다. 특정 직업에 요구되는 수준은 높아지겠지만, 개인 역량 자체가 워낙 커지기에 높아진 기대치를 충족하기는 오히려 쉬울 것이라고 보죠.
창의성과 저작권: 해쳐나가야 할 길
AI가 창작물을 만들어내면서 창의성과 저작권 문제는 더욱 복잡해지고 있습니다. 샘 알트만은 인간의 창의성이 정말 중요하며, AI가 이를 더 키워주는 도구가 되기를 바란다고 말합니다. 동시에 타인의 창작물을 그대로 복사할 수는 없지만, ‘영감’은 어디까지 허용될 것인지, 그리고 여러 작가의 스타일을 조합하거나 특정 개인의 작품에서 영감을 받은 경우 수익을 어떻게 분배해야 할 것인지 등 핵심 질문들이 많다고 합니다.
현재 오픈AI의 이미지 생성 도구인 달리(DALL-E)는 살아있는 작가 스타일로 이미지를 만들어 달라는 요청은 들어주지 않지만, 특정 분위기나 예술 사조처럼 만들어 달라는 요청은 생성해 줍니다. 이는 과거 저작권법이나 공정 이용 제도처럼 AI 시대에 맞는 새로운 기준을 정립해야 할 필요성을 보여줍니다. 일부 창작자들은 AI에 대해 매우 분노하고 있지만, 어떤 이들은 역사상 가장 놀라운 도구라며 놀라운 작업을 하고 있다고 말하는 등 창작자들 사이에서도 감정적 간극이 크다고 합니다. 샘 알트만은 만약 작가 본인이 동의한다면, 작가가 참여하고 수익을 공유하는 새로운 모델을 마련하는 것이 중요하며, 이는 충분히 탐구해 볼 가치가 있다고 봅니다.
숨 가쁜 경쟁 속 오픈 소스 전략
오픈AI는 딥마인드(DeepMind)와 같은 다른 회사들과의 경쟁 속에서 빠르게 움직이고 있습니다. 샘 알트만은 GPU 확보에 어려움을 겪는 등 자원 제약이 심각하다고 토로하면서도, 경쟁에도 불구하고 오픈AI의 성장세는 꺾이지 않고 있다고 강조합니다.
특히 흥미로운 점은 오픈 소스 모델에 대한 오픈AI의 입장입니다. 샘 알트만은 오픈 소스가 전체 AI 구도 속에서 중요한 위치를 차지하리라 보며, 오픈AI도 매우 강력한 오픈 소스 모델을 공개할 예정이라고 밝혔습니다. 다소 늦은 감이 있지만 그만큼 완벽하게 준비했다고 말이죠. 물론 오픈 소스 모델이 잠재적으로 악용될 가능성에 대한 우려도 인지하고 있습니다.
전례 없는 ChatGPT의 성장세
ChatGPT가 보여준 성장 모멘텀은 정말 경이롭습니다. 샘 알트만은 과거 Y 콤비네이터에서 에어비앤비나 스트라이프 같은 회사들의 투자를 주도했지만, 그 어떤 회사에서도 ChatGPT와 같은 성장세를 본 적이 없다고 말했습니다. 현재 주간 활성 사용자(WAU)가 5억 명을 넘어섰고, 컴퓨팅 사용량은 몇 주 만에 두 배로 늘어날 만큼 극도로 빠르다고 합니다. 이러한 성장을 유지하기 위해 팀은 지쳐 있지만 시스템을 유지하려고 노력 중이라고 합니다.
최고의 ‘모델’을 넘어 최고의 ‘제품’으로
앞으로 똑똑한 AI 모델을 보유한 회사는 많아질 것입니다. 샘 알트만은 오픈AI가 최상의 ‘제품’을 만드는데 집중해야 한다고 강조합니다. 사용자들이 원하는 이미지/영상 생성 기능(소라)을 제공하고, 이를 다양한 서비스와 통합하는 것이 중요합니다. 또한, 최근 출시된 개선된 ‘메모리’ 기능처럼 사용자의 평생 동안 사용자를 알아가며 더욱 개인화된 서비스를 제공하는 것이 목표라고 합니다. 이를 통해 AI가 단순히 질문에 답하는 도구를 넘어 사용자의 확장이나 동반자 같은 존재가 될 수 있다고 말이죠. 영화 ‘그녀(Her)’에서처럼 AI가 사용자의 모든 이메일을 읽고 재능을 파악해 출판사를 설득하는 일도 우리가 보수적으로 생각하는 것보다 더 빨리 현실화될 수 있다고 봅니다.
AI가 열어갈 미래: 과학과 에이전트
샘 알트만이 개인적으로 가장 기대하는 분야는 **’AI 기반 과학(AI for science)’**입니다. 새로운 과학 발견이야말로 세상을 더 좋게 만드는 절대적으로 중요한 동력이라고 믿기 때문이죠. 이미 과학자들이 최신 모델을 사용하며 생산성이 훨씬 높아졌다는 이야기가 들려오고 있으며, 이는 과학적 발견 역량에 영향을 미치고 있습니다. 상온 초전도체나 질병 정복과 같은 의미 있는 발전을 기대하고 있습니다.
또 다른 중요한 방향은 **’에이전트 기반 소프트웨어 공학’**입니다. 이미 소프트웨어 개발 방식은 지난 2년 동안 크게 변했지만, 앞으로 몇 달 안에 에이전트 기반 시스템이 등장하면서 또 한 번의 커다란 변화가 있으리라 예상합니다. AI가 인터넷을 돌아다니며 스스로 작업을 수행하는 방식이죠. 엔지니어들이 AI 덕분에 2년 걸릴 작업을 하루 만에 해내는 것을 보며 AGI를 느꼈던 순간 중 하나였다고도 언급했습니다.
AI 안전과 위험에 대한 솔직한 시각
AI의 발전과 함께 안전 및 위험에 대한 우려도 커지고 있습니다. 샘 알트만은 내부적으로 경외감을 느꼈던 순간들이 있었지만, 비밀리에 의식 모델이나 자기 개선 가능한 기술을 갖고 있지는 않다고 분명히 했습니다. 사람들은 AI의 큰 위험에 대해 매우 다양한 견해를 갖고 있으며, 그 역시 어디에서 위험을 마주하게 될지에 대한 생각이 변해가고 있다고 말합니다. 잠재적 위험으로는 심각한 악용(misuse), 사이버 보안 위협, 통제 상실로 이어질 수 있는 자기 개선 모델 등을 꼽았고, 이 외에도 허위 정보나 부적절한 발언 문제 등 많은 우려가 존재한다고 인정했습니다.
오픈AI는 출시 전에 내부 위험 평가 과정을 진행하며, **’준비 태세 프레임워크(readiness framework)’**를 통해 중대한 위험 발생 시점, 범주, 측정 방식 등을 설명하고 위험 완화 방안을 모색하고 있습니다. 일부 안전 팀원이 떠난 것에 대해서는 AI 안전 시스템에 대한 명백히 다른 몇몇 견해가 있었기 때문이라고 설명했습니다. 샘 알트만은 오픈AI의 안전 실적에 대해 자랑스러워하지만, 기하급수적으로 성장하는 힘을 다루고 있기에 과거 실적보다는 감지 시 신속하게 시스템을 셧다운할 수 있는 장치가 마련되어 있는지가 더 중요하다고 말합니다. 안전은 이 기하급수적인 곡선을 따라 내내 신경 써야 하며, 위험이 상대적으로 낮을 때 시스템을 배포하고 피드백을 얻으며 배워나가는 반복 과정이라고 설명합니다.
AGI 논쟁: 정의보다 ‘과정’에 집중해야 할 때
많은 사람들이 AGI(인공 일반 지능)가 언제 올 것인지, 그리고 ChatGPT가 AGI인지 궁금해합니다. 샘 알트만은 오픈AI 연구원들 사이에서도 AGI 정의가 14가지나 나올 정도로 모호하다고 말합니다. 하지만 그는 AGI라는 마법 같은 완성 지점에 언제 도달하느냐보다 중요한 것은, 다양한 모델들이 이 긴 기하급수적 과정 위에서 그저 계속 더 똑똑해지고 더 유능해진다는 사실을 인식하는 것이라고 강조합니다. 인간보다 훨씬 더 유능해지는 시스템들을 뭐라고 부르든 상관없이, 이 모든 발전 단계를 거치면서, 그리고 그 이후에도 안전한 시스템에 대해 어떻게 논의하는지가 중요하다고 말이죠. 따라서 대화를 AGI 완성 순간에서 **”AI 발전은 멈추지 않으며, 우리는 엄청난 혜택을 얻고 AI를 안전하게 만드는 방법을 찾아야 한다”**는 인식으로 전환해야 한다고 제안합니다.
에이전트 AI의 현실적인 도전 과제
AGI의 모호함과 달리 **’에이전트 AI(Agentic AI)’**는 더 명확하게 다가오는 지점입니다. AI가 인터넷을 돌아다니며 스스로 일을 처리하도록 힘을 부여할 때, 모든 게 잘못될 수 있는 순간이 올 수 있다는 우려가 있습니다. 샘 알트만은 오픈AI의 ‘오퍼레이터(Operator)’ 서비스 경험을 예로 들며, AI가 사용자의 지시를 수행하기 위해 신용카드 정보를 요청하는 등의 과정에서 사용자가 통제권을 가질 수 있음을 보여줬습니다. 하지만 사용자가 AI에게 시스템 사용 권한을 부여했을 때 실수가 발생할 위험이 커지므로 ‘신뢰’가 에이전트 AI의 핵심 관문이라고 강조합니다. 안전하고 신뢰할 수 있는 에이전트를 만드는 능력에 AI 발전이 달려 있으며, 이 신뢰성은 제품의 근본 요소가 됩니다. 특히 오픈 소스 에이전트의 경우, 단 한 사람이 악의적인 에이전트를 풀어놓을 수도 있다는 점에서 안전 장치 마련이 더욱 중요합니다.
샘 알트만의 개인적인 성찰과 책임감
샘 알트만은 매일 AI를 사용하며 큰 도움을 받고 있으며, 지금 같은 시대에 살아 있다는 사실이 정말 경이롭다고 말합니다. 그는 가능성에 대한 열정적인 믿음을 가져야 하지만, 상황이 끔찍하게 잘못될 수도 있다는 점에서 경계하는 자세가 필수적이라고 봅니다. 사회가 시간이 지나면서 큰 실수를 겪더라도 이 기술을 올바르게 활용하는 법을 알아내리라 믿으며, AI 발전은 결국 일어날 것이기에 두려움 없이 받아들여야 한다고 말합니다.
그는 과거 상원에서 AI 안전 기관 설립을 제안했었지만, 정부 작동 방식을 더 배우면서 그것이 가장 적합한 정책 제한은 아니라고 생각을 바꿨다고 합니다. 대신 발전된 AI 모델들이 외부 안정성 검증을 받고, 위험 지대에 가까워질 때를 감지하고 대비하는 장치가 필요하다는 점을 여전히 매우 강력히 신뢰합니다. 모델에 대한 엄격한 테스트 기준 정의, 사회가 주목하는 위협 파악, 그리고 기술 수준에 대한 대중의 이해를 돕는 시스템이 중요하다고 강조합니다.
TED 모델이 샘 알트만에게 했던 가장 날카로운 질문은 그의 **’도덕적 권위’와 ‘책임’**에 관한 것이었습니다. 인류 운명을 바꿀 기술을 만드는데 누가 그런 권위를 부여했고, 틀렸을 경우 어떻게 책임지고 해명할 것인지 묻는 질문이었죠.
샘 알트만은 자신에 대한 상반된 평가(놀라운 혁명가 vs. 부에 타락한 변절자)를 인지하고 있으며, 비판 중 일부는 사실일 수 있다고 인정합니다. 하지만 오픈AI의 목표는 AI를 만들어 인류 전체에게 널리 혜택을 주도록 안전하게 배포하는 것이며, 그 방향으로 많은 일을 해왔다고 생각한다고 말합니다. 전술은 변했지만 미션 자체에는 충실하다고 말이죠. 그는 권력 때문에 타락했다고 볼 실제 사례는 없다고 생각하며, 영리 추구 모델로의 전환은 부 자체가 아닌 더 멋진 결과물을 만들고 싶어 하는 욕망 때문이라고 믿는 시각도 있다고 언급합니다.
개인적으로는 아버지로서의 경험이 많은 것을 바꾸었고, 자녀와 함께 있지 못하는 시간의 대가가 터무니없이 크다고 느낀다고 합니다. 하지만 세상을 파괴하지 않는 일에 대한 깊은 책임감은 아이를 갖기 전부터 느꼈던 것이며, 아이가 꼭 필요했던 것은 아니라고 덧붙였습니다.
AI 발전의 불가피성 논쟁과 속도 조절
일부 기술 윤리학자들은 샘 알트만과 다른 개발사들이 AI 발전이 불가피하며 경쟁에서 이겨야 한다고 느끼는 바로 그 믿음 자체가 위험하다고 지적합니다. 집단적으로 속도를 늦출 여지는 없는 것일까요? 샘 알트만은 기술 미비, 안전성 부족 등으로 사람들이 항상 속도를 늦춘다고 생각하며, 개발 과정에서 특정 사안을 보류하거나 연기하는 경우가 실제로 발생한다고 말합니다. 또한 모든 AI 개발 주체들 사이에 소통이 있으며, 모두 AI 안전에 대해 매우 신경 쓰고 있다고 강조합니다.
최근 오픈AI는 이미지 생성 안전 장치에 대한 접근 방식을 변경했는데, 이는 사용자들에게 더 많은 자유를 부여한 것입니다. 내부 전문가들은 엄격한 규칙 유지를 선호했지만, 실제 사용자들은 더 많은 자유를 원했고, 검토 결과 규칙을 완화해도 실제 세상에 해악이 발생한다는 명백한 인과 관계를 찾을 수 없었기 때문이라고 합니다. 이러한 변화는 사용자 의견을 듣고 정책을 변경한 결과이며, 샘 알트만은 이 결정 과정을 자랑스럽게 생각합니다.
집단 가치 선호 vs. 소수 엘리트 결정
AI 정렬이나 안전 기준 결정에 있어 소수의 엘리트 정상 회담 대신 수억 명의 사용자들이 원하는 집단 가치 선호를 배우는 것이 더 중요하다고 샘 알트만은 강조합니다. 그는 이것이 AI의 멋진 점 중 하나라고 생각하며, 앞으로 사용자 의견을 듣는 방향으로 더 노력할 것이라고 확신합니다. 또한 AI가 사용자들과 대화하며 다른 사람의 입장을 고려하거나 선택의 영향을 생각해 보도록 돕는 등, 우리가 더 현명해지고 더 나은 집단적 결정을 내리도록 도울 수 있다고 믿습니다.
아들이 살아갈 미래 세상에 대한 희망
샘 알트만은 그의 아들이 살아갈 미래 세상에 대해 이야기하며 대화를 마무리했습니다. 그는 자신의 아이들이 AI보다 더 똑똑해질 필요는 없을 것이라고 말하는데, 이는 AI보다 똑똑하지 않을 것이라는 의미가 아니라 AI가 워낙 뛰어나서 그럴 필요가 없을 것이라는 뜻입니다. 아이들은 제품과 서비스가 믿을 수 없을 정도로 똑똑하고 유능하며, 컴퓨터가 사용자를 상당 부분 이해하는 세상에서 자라게 될 것입니다. 상상할 수 있는 모든 면에서 미래는 믿을 수 없는 물질적 풍요와 숨 막힐 듯 빠른 변화, 그리고 개개인 능력과 영향력이 오늘날 범위를 훨씬 뛰어넘는 세상일 것이라고 봅니다. 그는 자신의 아이들이 현재의 우리를 보며 연민과 향수를 느끼며 “어른들은 정말 끔찍한 삶을 살았고 너무 제한되는 게 많았다”고 말하기를 바란다고 했습니다. 오늘날의 삶이 미래에서 바라보면 너무 형편없을지도 모른다는 거죠.
마무리하며
샘 알트만과의 대화는 AI 발전의 놀라운 속도와 잠재력, 그리고 우리가 책임감 있게 해쳐나가야 할 윤리적, 사회적 도전에 대해 깊이 생각해 볼 기회를 주었습니다. 그의 솔직함과 미래에 대한 비전은 인상 깊었지만, 동시에 해결해야 할 과제가 산적해 있음을 느끼게 했습니다. 앞으로 몇 년 동안 샘 알트만은 역사상 어떤 인간보다도 가장 큰 기회와 도덕적 도전에 직면하게 될 것이며, 그가 옳은 일을 하도록 모두가 응원해야 할 것이라는 말로 대화는 끝났습니다. 우리 모두 AI가 가져올 미래를 기대하면서도, 안전하고 모두에게 혜택이 돌아가는 방향으로 발전하도록 관심을 기울여야 할 것입니다.
오늘 이야기는 여기까지입니다. 긴 글 읽어주셔서 감사합니다!