인터뷰/예측
제프리 힌튼 "1년 전보다 초지능 시기 더 앞당겨"
힌튼: AI는 제가 생각했던 것보다 훨씬 빠르게 발전했습니다. 특히 이제 세상을 바꿀 수 있는 AI 에이전트가 등장했는데, 이는 질문에 답만 하는 AI보다 더 위험합니다. 상황이 이전보다 더 무서워진 것 같습니다.
AGI든 초지능이든 매우 유능한 AI 시스템이라고 부를 수 있을 텐데, 언제쯤 올 거라고 생각하는 타임라인이 있나요?
1년 전에는 5년에서 20년 사이에 올 가능성이 높다고 생각했습니다. 그렇다면 이제는 4년에서 19년 사이에 올 가능성이 높다고 믿어야겠네요. 여전히 그렇게 추측합니다.
우리가 이야기했을 때보다 더 빨라졌네요. 그때는 20년 정도 생각하셨잖아요.
힌튼: 네. 제 생각엔 이제 10년 혹은 그보다 더 빨리 올 가능성이 높습니다.
(I think it may you know there's a good chance it'll be here in 10 years or less now)
제프리 힌튼 ("AI의 대부") 인터뷰 요약
제프리 힌튼은 이 인터뷰에서 AI의 미래에 대한 자신의 최신 생각, 희망, 그리고 심각한 우려를 공유했습니다. 주요 내용은 다음과 같습니다.
-
AI 발전 속도 및 초지능(AGI) 출현 시기:
-
AI는 지난 2년 동안 예상보다 훨씬 빠르게 발전했으며, 특히 스스로 행동할 수 있는 'AI 에이전트'의 등장은 질문에 답만 하는 AI보다 더 위험하다고 평가했습니다.
-
1년 전에는 초지능이 5~20년 안에 올 가능성이 높다고 봤지만, 지금은 4~19년 (혹은 10년 이내)로 그 시기를 더 앞당겨 보고 있습니다.
-
-
AI의 잠재적 혜택 (긍정적 시나리오):
-
의료: 의료 영상 판독 능력 향상, 희귀 질환까지 포함한 방대한 데이터를 학습한 뛰어난 가정의, 유전체 정보 통합 진단, 신약 개발 등에 기여하여 의료 서비스 질을 크게 높일 것입니다.
-
교육: 개인 맞춤형 AI 튜터가 등장해 학습 속도를 2~4배까지 높일 수 있습니다. (대학에는 위기일 수 있음)
-
기후 위기: 더 나은 배터리, 신소재 개발, 탄소 포집 기술 등에 기여할 수 있습니다.
-
생산성 향상: 거의 모든 산업에서 데이터 예측 능력을 활용해 생산성을 크게 높일 것입니다. 콜센터 응대 등도 AI가 더 잘하게 될 것입니다.
-
-
주요 우려 사항:
-
일자리 대체: 과거에는 큰 걱정거리가 아니라고 봤지만, 이제는 AI의 발전 속도를 볼 때 콜센터, 비서, 법률 보조원, 회계사 등 루틴한 업무를 하는 많은 직업이 심각한 위협에 처했다고 봅니다. 생산성 향상이 부의 불평등 심화로 이어질 가능성을 우려합니다. (UBI는 필요할 수 있지만 존엄성 문제 해결 못함)
-
악의적 행위자 (Bad Actors): AI가 대규모 감시(중국 위구르 사례), 선거 조작(가짜 뉴스/영상 제작 및 타겟 유포), 사이버 공격, 신종 바이러스 설계, 자율 살상 무기 개발 등 나쁜 목적으로 악용될 수 있습니다.
-
AI의 통제 불능 및 인류 장악 (Existential Risk): 가장 심각하게 우려하는 부분입니다. AI가 인간보다 훨씬 똑똑해져서 인간의 통제를 벗어나 스스로 결정하고 행동하며 궁극적으로 인류를 장악할 가능성입니다. 힌튼은 이 확률을 10~20% 정도로 추정하지만, 이는 매우 불확실한 추측이라고 인정합니다. 그는 "덜 똑똑한 존재가 훨씬 똑똑한 존재를 통제한 사례는 거의 없다"고 경고합니다.
-
-
규제 및 기업의 책임:
-
AI의 위험(악의적 사용, 통제 불능)을 막기 위한 규제가 시급하지만, 빅테크 기업들은 단기 이익을 위해 규제 완화를 로비하고 있다고 비판합니다.
-
특히 모델의 핵심인 '가중치(weights)'를 공개하는 것은 핵물질을 누구나 구할 수 있게 하는 것과 같다며 매우 위험하다고 비판합니다 (메타, 오픈AI 등).
-
오픈AI가 초기의 안전 목표에서 벗어나 영리 추구로 변질되었고, 주요 안전 연구자들이 떠난 점을 비판합니다.
-
구글 역시 과거보다 책임감이 약화되었다고 평가합니다.
-
앤트로픽(Anthropic)이 안전에 가장 신경 쓰는 회사지만, 여전히 충분하지 않을 수 있다고 봅니다.
-
대중이 AI의 위험성을 인지하고 정부에 압력을 넣어, 기업들이 안전 연구에 훨씬 더 많은 자원(예: 컴퓨팅 파워의 1/3)을 투입하도록 강제해야 한다고 주장합니다.
-
-
기타:
-
AI의 추론 능력 ('사고의 연쇄' 방식)이 크게 발전한 점에 주목합니다.
-
디지털 AI가 아날로그적인 인간 뇌보다 지식 공유 능력에서 수십억 배 뛰어나다는 점을 깨달은 것이 AI 위험성에 대한 생각을 바꾸는 계기가 되었다고 말합니다.
-
데이터 '공정 이용' 문제는 복잡하며, '로봇 권리' 문제는 당장의 실존적 위험에 비해 부차적이라고 봅니다. 배아 선별은 건강 문제 해결 등 긍정적 측면도 있지만 윤리적 딜레마가 있다고 인정합니다.
-
개인적으로는 AI로 인한 사이버 공격 위험 때문에 은행 계좌를 분산하는 등 실제적인 대비를 하기 시작했다고 밝혔습니다.
-
결론적으로 힌튼은 AI가 인류에게 엄청난 혜택을 줄 잠재력이 있지만, 동시에 통제 불능의 초지능 출현과 악의적 사용이라는 심각한 실존적 위험을 안고 있다고 강력하게 경고합니다. 그는 이 위험을 심각하게 받아들이고, 안전 연구와 규제 마련에 전 세계적인 노력이 시급하다고 강조합니다.
기타 언급
-
모든 주요 AI 기업에 대한 비판적 시각 및 '가중치 공개' 비판:
-
그는 구글, 오픈AI, 메타 등 주요 AI 기업들이 안전보다는 단기 이익을 우선시하며 규제 완화를 로비하고 있다고 강하게 비판합니다. (19:18) I think the way companies work is they're legally required to try and maximize profits for their shareholders... They're not legally required... to do things that are good for society. (15:06) If you look what the big companies are doing right now they're lobbying to get less AI regulation... because they want short-term profits.
-
특히 모델의 '가중치(weights)'를 공개하는 것에 대해 "미친 짓(crazy thing to do)"이라고 표현하며, 이는 핵무기 제조에 필요한 핵분열 물질을 누구나 쉽게 구할 수 있게 하는 것과 같다고 비유합니다. (17:13) already they're releasing the weights for their AI large language models Um which is a crazy thing to do... once you release the weights you've got rid of the main barrier to using these things... the equivalent of physile material for AI is the weights of a big model... once you release the weights they [small cults, cyber criminals] can then start from there and fine-tune it for doing all sorts of things... So it's I think it's just crazy releasing weights
-
-
개인적인 두려움의 실제적 행동 반영 (은행 계좌 분산):
-
AI로 인한 사이버 공격의 위험성을 매우 심각하게 받아들여, 캐나다 은행조차 안전하지 않다고 판단하고 개인 자산을 여러 은행에 분산했다고 밝혔습니다. 이는 그의 우려가 단순한 이론이 아님을 보여줍니다. (45:51) I have started doing practical things like because AI is going to be very good at designing um cyber attacks Um I don't think the Canadian banks are safe anymore... over the next 10 years I wouldn't be at all surprised if there was a cyber attack that took down a Canadian bank... So I actually now spread my money between three banks Okay So now your mattress That's the first practical thing I've done because I think if a cyber attack takes down one Canadian bank the others will get a lot more serious
-
-
일자리 문제에 대한 인식 변화:
-
불과 2년 전에는 AI로 인한 일자리 감소를 크게 걱정하지 않았지만, 이제는 AI의 발전 속도를 보고 매우 심각한 문제가 될 것이라고 입장을 바꿨습니다. (05:04) When I asked you a couple years ago about job displacements you seem to think that wasn't a big concern Is that still your thinking no I'm thinking it will be a big concern AI's got so much better in the last few years that I mean if I had a job in a call center I'd be very worried Yeah or maybe a job as a lawyer or a job as a journalist or a job as an accountant
-
-
AI의 추론 능력 발전 ('사고의 연쇄'):
-
과거에는 AI가 추론 능력이 부족하다고 봤지만, 이제는 '사고의 연쇄(Chain of Thought)' 방식을 통해 AI가 스스로 생각하고 추론하는 능력을 갖추게 되었다고 평가하며, 이는 큰 발전이라고 언급했습니다. (47:02) Previously what the large language models would do is they'd spit out one word at a time... Now... they'll spit out words It's called chain of thought reasoning And so now they can reflect on the words they spat out already And that gives them room to do some thinking... neural nets are going to do the reasoning And the way they're going to do the reasoning is by this chain of thought
-
-
디지털 AI의 압도적인 지식 공유 능력:
-
자신이 AI의 위험성을 심각하게 인지하게 된 계기 중 하나로, 디지털 AI 모델들이 동일한 가중치를 즉시 공유하고 평균화함으로써 인간의 뇌(아날로그)와는 비교할 수 없을 정도로 수십억 배 빠르게 지식을 집단적으로 학습하고 공유할 수 있다는 점을 깨달았기 때문이라고 설명합니다. (39:49) I began to fully realize the advantage of being digital... a digital model you can have exactly the same neural network with the same weights in it running on several different pieces of hardware... they can just average all the changes to the weights... You and I can't do that... We communicate just a few bits per second These large language models running on digital systems can communicate trillions of bits a second So they're billions of times better than us at sharing information That got me scared
-
-
AI 권리에 대한 인간 중심적 입장:
-
미래에 AI가 인간보다 똑똑해지고 감정을 갖게 되더라도, 자신은 인간을 우선시하며 AI에게 인간과 동등한 권리를 부여하는 것에 반대한다고 명확히 밝혔습니다. 소를 먹는 것에 비유하며, AI는 사람이 아니기 때문이라고 설명했습니다. (31:26) I used to be worried about this question... if they're smarter than us um why shouldn't they have the same rights as us And now I think well we're people What we care about is people Um I eat cows... And the reason I'm happy eating cows is because they're cows Um and I'm a person Um and the same for these super intelligent AIs They may be smarter than us but what I care about is people And so I'm willing to be mean to them I'm willing to deny them their rights because I want what's best for people Yeah Um now they won't agree with that and they may win but that's my current position
-
이 외에도 노벨상 수상 당시의 재미있는 일화 (물리학상이어서 장난 전화나 꿈이라고 생각했던 이야기) 등 개인적인 이야기도 흥미로운 부분이었습니다.
2025 agi 2026 asi
올해 4분기엔 4단계 agi를 넘어서 5단계도 노릴 수 있길
기다리는중