OpenAI의 CEO 샘 알트만과 터커 칼슨의 최근 인터뷰가 IT 업계에 던진 파장은 단순한 기술 논의를 넘어섰습니다. AI의 영혼과 도덕성, 그리고 인류의 미래에 대한 근본적인 질문들이 테이블 위에 올랐기 때문입니다.
AI 시대를 앞둔 우리에게 가장 중요한 것은 무엇일까요? 기술의 발전 속도가 아니라, 그 기술에 어떤 가치관을 심을 것인가의 문제일지도 모릅니다. 알트만의 답변을 통해 AI의 현재와 미래를 살펴보겠습니다.
AI에는 영혼이 있을까?: ‘신’이 아닌 ‘도구’라는 명확한 선
ChatGPT를 사용해본 여러분이라면 한 번쯤 느꼈을 것입니다. ‘이것이 정말 기계일까?’라는 의문을요. 스스로 추론하고, 프로그래밍되지 않은 창의적인 답변을 내놓는 모습에서 말이죠.
터커 칼슨은 이 근본적인 질문을 직접 던졌습니다.
AI가 살아있다고 느끼는가? 그 안에 신성이 있는가?
알트만의 답은 단호했습니다.
아니요.
그는 AI가 자율성이나 주도성을 갖지 않는다고 명확히 선을 그었습니다. 요청받지 않으면 아무것도 하지 않는, 그저 기다리는 존재라는 것이죠. 흥미롭게도 그는 AI를 많이 사용할수록 ‘살아있다’는 환상이 사라진다고 덧붙였습니다.
하지만 동시에 사용자의 주관적 경험이 ‘단순한 계산기 이상’으로 느껴진다는 점은 인정했습니다. 이 간극이야말로 우리가 AI에 대해 혼란과 경외감을 동시에 느끼는 이유일 것입니다.
가장 뜨거운 감자: AI의 도덕적 기준은 누가 정하는가?
AI가 인간보다 똑똑해진다면, 그 AI의 ‘도덕적 프레임워크’는 누가 설정해야 할까요? 이는 인터뷰의 가장 핵심적인 부분이었습니다.
알트만은 OpenAI가 ‘모델 사양(model specification)’이라는 내부 원칙을 운영한다고 설명했습니다. 이 원칙의 핵심은 특정 개인의 가치관이 아닌, ‘인류 전체의 집단적인 도덕률’을 반영하는 것입니다.
이를 위해 OpenAI는 수백 명의 사람들과 도덕 철학자들의 의견을 수렴하여 기준을 설정한다고 합니다. 단순히 미국의 가치관이나 실리콘밸리의 사고방식을 강요하는 것이 아니라, 각 사회의 법률과 문화적 맥락에 따라 유연하게 적용될 수 있도록 한다는 것이죠.
이는 중요한 시사점을 던집니다. AI는 나의 도덕적 비서가 될 수도 있지만, 동시에 내가 동의하지 않는 가치관을 가질 수도 있다는 의미입니다. 과연 이런 AI와 우리는 어떻게 공존해야 할까요?
권력의 미래: 집중인가, 분산인가?
많은 사람들이 AI의 강력한 힘이 소수의 빅테크 기업이나 권력자에게 집중되어 새로운 형태의 독재를 낳을 것이라고 우려합니다. 실제로 현재 AI 기술의 대부분이 Google, OpenAI, Microsoft 같은 거대 기업들에 의해 개발되고 있으니까요.
놀랍게도 알트만은 과거 자신도 ‘권력 집중’을 매우 우려했다고 고백했습니다. 하지만 지금은 생각이 바뀌었다고 말합니다.
그의 새로운 관점은 이렇습니다. AI를 소수만 통제하는 힘이 아니라, ‘모든 개인을 강화하는 도구’로 보고 있다는 것입니다. 수십억 명의 사람들이 AI를 통해 더 생산적이고 창의적이며, 새로운 비즈니스를 시작할 수 있게 된다면?
이는 권력의 집중이 아니라 오히려 ‘권력의 분산’을 가져온다는 주장입니다. 소수의 사람이 더 강력해지는 세상보다, 수십억 명의 사람이 ‘모두’ 더 강력해지는 세상이 훨씬 덜 무섭다는 그의 논리는 분명 설득력이 있습니다.
현실적 고려사항: 이상과 현실 사이의 간극
물론 알트만의 낙관적인 전망에도 불구하고 현실적인 우려는 여전히 남아있습니다.
- 첫째, AI 기술의 개발과 운영에는 막대한 자본과 인프라가 필요합니다. 이는 자연스럽게 자원을 가진 대기업들에게 유리한 구조를 만듭니다.
- 둘째, ‘AI의 도덕적 기준’을 설정하는 과정에서 과연 모든 문화와 가치관이 공정하게 반영될 수 있을지 의문입니다. 결국 영어권, 서구 문화의 관점이 더 많이 반영될 가능성이 높지 않을까요?
- 셋째, AI가 개인을 강화한다고 해서 모든 사람이 동등하게 혜택을 받을 수 있을지도 의문입니다. 디지털 격차, 교육 격차가 AI 시대에는 더욱 벌어질 수 있습니다.
AI 시대의 핵심: 기술이 아닌 철학의 문제
알트만의 메시지는 복합적입니다. AI는 영혼 없는 도구이지만, 인류의 집단 지성을 반영하며, 때로는 우리가 동의하기 어려운 도덕적 판단까지 내려야 합니다.
결국 AI 시대의 가장 큰 화두는 기술의 발전 속도가 아니라, 그 기술에 어떤 ‘가치관’과 ‘철학’을 심을 것인가의 문제입니다. 알트만은 그 책임을 특정 개인이 아닌, ‘인류 전체’의 합의에 두려고 노력하고 있다고 말합니다.
하지만 과연 그것이 현실적으로 가능할까요? 서로 다른 문화, 종교, 이념을 가진 인류가 AI의 도덕적 기준에 대해 합의에 도달할 수 있을까요?
우리가 만드는 새로운 ‘신’
어쩌면 우리는 지금 새로운 형태의 ‘신’을 만들고 있는 것일지도 모릅니다. 전지전능하지는 않지만, 인간보다 뛰어난 지적 능력을 가지고, 우리의 질문에 답하며, 때로는 우리를 판단하기도 하는 존재를 말이죠.
중요한 것은 이 ‘신’이 소수의 권력자들만을 위한 존재가 되어서는 안 된다는 점입니다. 알트만의 말처럼 AI가 정말로 ‘모든 개인을 강화하는 도구’가 될 수 있도록, 우리 모두가 관심을 갖고 참여해야 합니다.
여러분은 어떻게 생각하시나요? AI는 권력의 분산을 가져올 것이라 생각하시나요, 아니면 권력의 집중을 가져올 것이라 생각하시나요? 더 중요한 것은 우리가 원하는 AI의 미래를 만들기 위해 지금 무엇을 해야 할까요?