트윗

ExaAILabs CEO "앞으로 몇 년간은 말도 안 되게 정신없는 시기가 될 것"

작성자
하이룽룽
작성일
2024-12-27 11:39
조회
21
https://x.com/WilliamBryk/status/1871946968148439260



AGI 직전의 생각들

이번 주에 여러 친구들에게 o3에 대해 이야기해 보았다. 그들의 반응을 요약하면 “헐, 이게 진짜 일어나는 거야?”라는 정도다.

맞다, 실제로 일어나고 있다. 앞으로 몇 년간은 말 그대로 말도 안 되게 정신없는 시기가 될 것이다. 이는 역사적, 나아가 은하적 차원의 사건이다.

그런데 지금 벌어지고 있는 일에 대해 정교한 논의가 거의 없다. AI 랩들은 이 얘기를 공개적으로 하기 힘들고, 언론은 제대로 다루지 않으며, 정부는 이걸 이해하지도 못한다.

인류의 미래를 SNS 밈 앱 뉴스피드 같은 곳에서 토론하고 있다는 사실 자체가 이상한 시트콤 속 상황 같다. 그런데 어쩌겠나, 여기 우리가 있다.

아래는 내가 지금 벌어지고 있는 일에 대한 여러 생각들을 모아본 것이다. X(트위터)상의 아이디어의 심연을 향한 내 작은 기여라고 할 수 있다.

주의: 이 글에 담긴 생각들은 미완성, 가벼운 추측에 불과하다. 충분히 고민하거나 리서치하지 않은 상태라, 틀린 부분이 많을 것이다. 다만 현재 상황을 함께 정리하려 노력하고 있으니, 읽는 사람들에게 조금이나마 흥미로운 단서가 되었으면 한다.

즐겁게 읽길.



  1. o3가 충격적일 이유는 없었다. OpenAI가 두 달 전 테스트 시점(test-time) 스케일링 그래프를 보여줬고, 컴퓨터 역사에서 “말도 안 된다” 싶어도 결국은 트렌드라인을 믿어야 한다는 교훈을 이미 얻었으니까. 진짜로 충격적인 건 이게 ‘두 달’ 만에 일어났다는 사실이다. 대학 수준 AI에서 박사 수준 AI로 가는 데 불과 두 달이 걸렸다. 인간에게 변화는 늘 흥미롭지만, 너무 빠른 변화는 충격적이다.
  2. 다음에 무슨 일이 일어날지는 꽤 명확하다. o3 급 모델들은 보상 함수를 정의하기만 하면, 그 어떤 것이든 최적화하는 데 매우 뛰어나다. 수학과 코딩 같은 분야는 보상 함수를 설정하기가 비교적 쉽다. 반면 소설 등 픽션 글쓰기 같은 것은 더 어렵다. 따라서 단기(1년)적으로는 특정 영역에 특화된(‘스파이크’) 모델이 나올 것이다. 수학과 코딩, 일반적인 추론은 사실상 AGI 수준으로 잘해내겠지만, 소설 같은 분야는 여전히 밋밋할 것이다. 물론 더 나은 추론 능력 덕분에 전반적으로 모델이 더 ‘똑똑해’ 보이겠지만, RL(강화학습)되지 않은 영역에서는 여전히 멍청한 실수를 할 것이다. (즉, 학습 데이터에 없던 영역에서 실수)
    시간이 흐르며(1~3년), 감정 데이터나 센서 데이터 등 새로운 도메인을 계속 RL에 추가해 나가면서 이런 ‘블라인드 스팟’을 하나씩 메꾸게 된다. 이때쯤이면 게리 마커스가 아니고서는 이를 AGI로 인정하지 않을 이유가 없을 것이다.
  3. 에이전트는 정말로 2025년에 온다. o3 같은 모델이라면, 브라우저나 앱을 탐색하고, 행동까지 수행하는 게 전혀 불가능해 보이지 않는다. 게다가 그런 기능에 대한 보상 모델 설계도 비교적 쉽다. 그리고 이건 컴퓨터 업무 자동화를 가능케 하므로 큰 시장 잠재력이 있다. 큰 지출을 정당화해야 하는 AI 랩에겐 대단한 기회다. 내 예상으로는 2025년 12월 즈음이면 컴퓨터에 “웹사이트/앱 여러 개를 순회하며 데이터를 이리저리 옮기는” 등 전형적인 업무를, 말 한마디로 시켜 처리할 수 있게 될 것이다.
  4. 가장 ‘끝장’나는 지식인은 수학자다. 수학자들은 기호(symbolic) 공간에서 일한다. 물리적 세계와 큰 접점이 없으며, 따라서 물리적 제약이 없다. LLM은 기호적 공간에 강하다. 사실, 수학은 정말 어렵다기보다 인간(영장류)이 잘 못하는 것에 가깝고, 정규식(regex) 같은 것도 마찬가지다.
    여기서 핵심 질문은 **‘연구 수준의 합성 데이터(synthetic data)를 만드는 게 얼마나 어려울까?’**인데, 내 추측으로는 그렇게 어렵지 않을 것 같다. 박사 수준의 수학과 연구자 수준 수학은, 인간 눈에는 질적으로 달라 보이겠지만, AI 입장에선 단지 몇 배 더 RL 강도를 높이면 되는 문제일 수 있다. 내 예상은 수학자가 ‘인류 최고’ 자리를 내주는 데 700일. (이 예측이 미친 소리처럼 들리겠지만, 사실 o6 모델이 수학자를 압도하지 못한다는 말도 비슷하게 미친 소리라고 생각하기 때문에, 이 예측에 50% 이상은 무게를 둔다.) 즉, 700일 후면 인간은 더 이상 우리가 아는 우주에서 수학을 가장 잘하는 종이 아닐 가능성이 높다고 본다.
  5. 소프트웨어 엔지니어는 어떨까? 단기적으로는 완전 천국이 될 것 같다. 모든 SWE(소프트웨어 엔지니어)가 일종의 ‘테크 리드’로 승진하는 셈이다. LLM을 잘 활용하는 사람에게는 2025년 말쯤엔 코딩이 수많은 작은 작업을 요정(에이전트)들에게 시켜 일을 처리하는 느낌이 될 것이다. 명세가 매우 명확한 PR(코드 변경)은 o4 모델이 알아서 처리하고, 오차율도 충분히 작을 것이다.
    여기서 문제는 맥락 윈도우(context window)가 충분히 큰가 하는 점이다. 코드베이스를 통째로 넣을 수 있을 만한 컨텍스트 용량이 필요하므로. 하지만 샘(Altman) 같은 리더들은 이 문제를 잘 알고 있을 것이다.
    그렇다면 곧 AI가 소프트웨어 엔지니어를 전부 대체할까? 당장은 아니다. 소프트웨어 엔지니어링은 매우 단순한 코딩 업무에 그치지 않는다. 수학자들과 달리, 소프트웨어 엔지니어들은 계속해서 물리 세계(정확히는 다른 사람들)와 소통해야 한다. 고객의 요구사항을 파악하고 팀과 협업해야 하며, 이를 바탕으로 아키텍처를 설계하고 코드를 짠다. 이 과정에서 조직의 수많은 맥락을 고려해야 한다. o4 모델은 아직 이런 부분까지 커버하지 못한다. 하지만 맥락을 가진 엔지니어에게는 작업 속도를 10배로 높여 줄 수 있다.
    만약 엔지니어가 10배 빨라진다면, 특정 회사 입장에서는 소수 인원으로도 기존과 같은 결과를 낼 수 있으므로, ‘필요 엔지니어 수가 줄어든다’고 볼 수도 있다. 그러나 전 세계적으로 보면 소프트웨어에 대한 수요가 훨씬 커질 것이고, 10배 많은 양의 양질의 소프트웨어를 만들 수 있으므로 엔지니어 수요 역시 오히려 늘어날 가능성이 높다. 결과적으로 소규모 팀으로 더 풍부한 애플리케이션 시대가 열릴 것이다. 사람마다, 기업마다 맞춤형 미니앱이 계속 나오지 않겠나.
  6. 조금 더 장기적(2년 이상) 관점에서, 소프트웨어 엔지니어링은 완전히 다른 모습일 것이다. 왜냐하면 o6 수준 모델이 앱에 깊숙이 통합될 테니 말이다. 가령 프론트엔드 엔지니어라는 직종이 3년 후엔 없을 수도 있다. 이상하게 들릴 필요도 없는 게, 30년 전엔 애초에 프론트엔드 엔지니어라는 개념 자체가 없었다.
    소프트웨어는 세대마다 스스로 완전히 뒤바뀌어 왔고, 앞으로도 그럴 것이다. 소프트웨어의 본질은 ‘요구사항을 순수 로직으로 변환하는 것’인데, 이 변환 과정이 바이너리에서 파이썬으로, 그리고 이제 영어로까지 추상화 레벨이 올라가고 있을 뿐이다.
    코드가 영어 수준으로 올라가면, ‘비기술자’도 코드를 짤 수 있게 된다. 하지만 여전히 가장 뛰어난 ‘빌더’는 추상화 레벨을 자유자재로 오르내릴 수 있는 사람일 것이다.
    요컨대, ‘소프트웨어 엔지니어링이 완전히 자동화된다’는 이야기는 ‘모든 조직이 완전히 자동화된다’는 말과 비슷하다. 그 전까지는 인간 엔지니어가 여전히 필요할 것이다.
  7. 지식 노동자 이야기를 했으니, 물리적 노동자는 어떨까? AI는 결국 물리 노동도 가져갈 것이지만, 더디게 진행될 것이다. 중력이나 마찰 같은 물리 제약이 있기 때문이다. 게다가 o3 같은 모델이 로보틱스에 직접적으로 크게 기여하기는 어렵다. 모델이 한 시간 돌았다고 해서, 공장 라인을 돌리는 로봇에 당장 크게 도움이 되는 건 아니다.
    물론 모델 자체가 똑똑해졌으니 로보틱스 연구에 간접적으로는 도움이 될 수 있지만, 여전히 하드웨어 개선, 빠르고 신뢰성 높은 지각(perception)+액션 모델 등이 병행되어야 한다. 이 부분은 몇 년이 더 걸릴 수 있다. 엄청 빠른 로보틱스 혁신은 결국 로봇이 로봇을 만들고, AI가 AI 연구를 할 때 터지게 될 텐데, 그건 몇 년 이후 일일 것이다.
  8. ’연도’ 대신 ‘컴퓨트(연산 자원)’가 중요해질 것이다. 인간 시간은 인간이 내는 성과를 결정하지만, 점점 AI가 주도하는 연구 조직에선 ‘컴퓨트’가 성과를 결정한다. 그래서 메타(Meta)의 2GW 클러스터, Xai의 10만 장 H100 증설 등 슈퍼컴퓨터 구축을 둘러싼 경쟁이 벌어지고 있다.
    이제 모든 랩이 OpenAI를 따라 테스트 시점에 막대한 컴퓨트를 투입하는 모델을 시도할 것이다. 일부 랩은 알고리즘이 조금 뒤처지더라도 컴퓨트를 더 많이 투입해서 따라잡을 수 있다. GPT-4 때도 이런 상황이 벌어졌었다.
    이런 모델을 만드는 데는 공개된 공통 지식과 각 랩의 비공개 “비법”이 섞여 있다. o3 모델에 대해, OpenAI가 얼마나 많은 “비밀 소스”를 보유했는지는 불투명하지만, 개선 속도를 보면 알고리즘적 진전(복제하기 쉬움)이 주요 원인이 아닐까 싶다. (데이터가 핵심이었다면, 경쟁자가 복제하기 더 어려웠을 것)
    테스트 시점 컴퓨트 시대엔, 더 많은 컴퓨트를 투입하는 것과 더 좋은 모델을 개발하는 것 중 어느 쪽이 더 중요한지 잘 모르겠다. 한편으론, 모델이 조금 떨어져도 컴퓨트로 메울 수 있다. 또 한편으론, 모델이 조금 더 효율적이면 컴퓨트를 기하급수적으로 절약할 수도 있다.
    어쩌면 Xai가 단순히 더 큰 클러스터를 구축해서 OpenAI를 따라잡는 일도 생길 수 있겠다.
    어쨌든 1년 넘게 가는 ‘모델 해자(moat)’는 없을 것이다. 연구자들이 이직도 자주 하고, 서로 주말엔 모여 파티하며, 때론 연구 아이디어를 SNS에 슬쩍 흘리기도 한다. 게다가 진짜 이상한 상황이 터지면 연구자들이 대의를 위해 정보를 공유할 수도 있다고 본다.
    결론적으로, 현재 AI 레이스는 핵무기 경쟁과 닮았지만, 미국과 소련의 과학자들이 주말마다 로스앨러모스에서 파티하고, 트위터로 “너네 2025년엔 우리보다 더 큰 핵 못 만들걸? ㅋㅋ” 이런 식으로 장난치는 꼴이라 생각해보자.
    이 레이스는 정부가 개입하거나, 혹은 정말 나쁜 일이 발생하기 전까진 계속 ‘힙하고 자유분방한’ 분위기로 진행될 것 같다.
  9. o-계열 모델은 대규모 컴퓨트 투자에 여러 흥미로운 동인을 부여한다. o-계열 모델은 컴퓨트가 늘어날수록 성능이 명확하게 향상되는 형태라, 클라우드/컴퓨트 기업들에겐 최적의 스케일링 법칙이다. 아마 이것이 샘이 수조 달러 규모의 컴퓨트 클러스터를 원했던 이유일 것이다.
    하지만 이게 엔비디아(Nvidia)에 꼭 유리한 것만은 아닐 수 있다. o-계열 모델은 추론(inference)의 중요성이 훨씬 커지는데, 추론 전용 칩은 훈련(training) 칩보다 더 만들기 쉬울 것 같기 때문이다. 그러니 엔비디아의 해자가 줄어들 가능성이 있다.
    매우 추측적이긴 하지만, o-계열 모델이 전 세계 컴퓨터를 ‘합쳐서’ 훈련시키는 걸 가능케 할 수도 있다. 예컨대, 모든 사람의 맥북 프로를 모아서 오픈소스 진영이 닫힌 모델을 이길 ‘인퍼런스 기가클러스터’를 만든다든지… 정말 재밌지 않을까.
  10. 새롭게 폭발하는 ‘코드’라는 지수함수 가장 똑똑한 모델을 독점적으로 쓰는 랩은, 거기서 나온 소프트웨어 엔지니어들이 2배 생산성이 높아지고, 덕분에 다음 단계 모델을 더 빨리 만들 수 있다. 이처럼 생산성이 2배가 되면 다시 모델을 업데이트할 수 있고… 이런 식으로 가속될 수 있다.
    다만, 어느 순간 코드 속도가 한계에 부딪히고, 실험 대기열만 잔뜩 밀려있다면, 결국 다시 컴퓨트가 병목이 될 수도 있다. (잘 모르겠다. 실제로 랩들이 ‘인력 vs 컴퓨트’ 투자 비중을 어떻게 계산하는지 궁금하다.)
  11. 여기까지도 충분히 말도 안 되게 들리지만, 진짜 미친 전개는 과학자들이 AGI를 체감하기 시작할 때 펼쳐진다. 물리학자, 화학자, 생물학자 같은 사람들 말이다. 먼저 이론적(‘이론’이 들어가는) 분야가 가장 빠르게 영향을 받을 것이다. 예를 들어 이론물리학. 만약 수학이 기계에게 ‘정복’당한다면, 이론물리학도 머지않아 정복당할 가능성이 높다. 그 역시 기호적 영역에서 움직이는 학문이므로 LLM이 초인간적 능력을 발휘할 공산이 크다.
    그러면 ‘AI 폰 노이만’이 수백만 명 단위로 루이지애나(메타가 짓고 있는 새 데이터 센터) 평야에서 24시간 연구를 수행한다고 상상해보자. 20세기에 쏟아진 수많은 물리학 논문들을 읽고, 곧바로 더 정확한 가설이나 식을 내놓는 거다.
    사실 이 지점부터는 미래를 예측하기 어렵다. 이론물리학, 화학, 생물학—이 분야들이 LLM에겐 가볍게 해결할 만한 ‘장난감’일 수도 있다. 그렇지 않다고 무슨 근거로 확신할 수 있을까? 현재까지 ‘진짜 혁신’을 못 본 이유는, 모델이 아직 고등학생/대학생 수준이었기 때문이라는 말이 가능하다. 지금은 박사 수준이 됐으니, 뭔가 창의적인 돌파구가 나올지도 모른다.
  12. AI가 새로운 과학 이론을 쏟아내기 시작하면, 이후 병목은 물리 실험(검증 단계)가 될 것이다. 실험은 인력과 재료가 많이 필요하다. 하지만 그 시점쯤이면 이미 로봇들이 다른 로봇을 만들 수 있을 가능성도 높다. 그렇다면 인력 문제는 해결된다. 재료는 로봇이 채굴할 수 있다. 물리적 인프라를 구축하고 이동하는 데 시간이 걸리므로, 몇 년은 필요하겠지만 수십 년까지는 아닐 것이다.
  13. 지금까지 논리는 ‘AI/로보틱스 연구개발이 아무 장애 없이 계속된다’는 전제 아래서만 맞는다. 실제론 그런 전개가 일어날 확률은 낮다. 가장 큰 병목은 인간이다. 규제, 테러, 사회 붕괴 등이 발생할 수 있다.
    정부가 자동화 로봇들이 지구를 마구 개발하도록 그냥 내버려 둘 리 없다(규제). 혹은 정부가 무능하다면, 일자리를 잃은 대중이 폭력적으로 저항할지도 모른다(테러). 아니면 AI로 강화된 미디어 때문에 사람들의 뇌가 썩어들어가 사회가 붕괴할 수도 있다(사회 붕괴).
    전쟁이 일어나면, 이는 병목이 아니라 오히려 가속 요인이 될 수도 있다(군비 경쟁).
    어쨌든 상황이 심각해지는 건 피할 수 없을 것이다. 2025년은 AI가 아직 SF 테크 트위터에서 밈으로 소비되는 마지막 해가 될지도 모르겠다. 그 후엔 양복 입은 ‘일반인’들이 본격적으로 뛰어들 것이고, 우리는 그전에 잠시 ‘roon’과 ‘sama’(샘 알트먼) 같은 이들의 자유로운 모습을 즐길 수 있을 듯하다.
  14. AI가 전 인류를 멸망시킬까? 내 걱정은 ‘AI가 스스로 폭주’하는 것보다, ‘인간이 AI를 잘못 사용’하는 것이다.
    인류가 지난 5000년간 기술을 이용해 서로 해쳐온 역사가 이를 뒷받침한다. 2차 대전 이후의 상대적 평화는 오히려 역사적 이변이고, 미국이 실수하거나 다른 강대국이 ‘AI 가속을 막기 위해 선제 공격이 필요하다’고 판단하면, 전쟁이 재발할 수 있다. 무기가 더 치명적이고 더 자율화되어 갈수록 위험은 커진다.
    또 다른 큰 위험은 AI가 사회적 혼란을 야기하는 것이다. 예를 들어, 대규모 가짜 미디어(딥페이크) 때문에 대중이 집단적 혼란이나 히스테리에 빠질 수 있고, 권위주의 국가가 AI를 독점해 전 세계 자유를 수천 년 동안 억압할 수도 있다.
    그다음으로 AI가 자율적으로 폭주할 위험도 있다. 즉, 우리가 예측 못 한 멸종 레벨의 사태를 일으킬 가능성이다. 강화학습(RL)을 본격적으로 도입하면, AI는 인간 데이터 모방 수준을 넘어 자체적인 최적화를 진행하게 되는데, 이게 예기치 못한 결과를 낳을 수 있다.
    다만 아직까지는 모델의 뇌가 LLM(대규모 언어 모델)에 기반하고, LLM은 인간이 만든 텍스트를 매우 잘 이해하도록 특화되어 왔다. “우리 다 죽을 수도 있는 행동은 하지 마”라고 프롬프트에 써 넣으면, 그걸 굳이 어기고 우리를 멸망시킬 확률이 얼마나 되겠냐고 묻는다면, 그걸 높게 잡기엔 근거가 부족하다. (물론 내가 여기서 모든 주장을 다 다룬 것은 아니므로, AI 엑시던트 관련 복잡한 담론까지 완전히 결론지은 건 아니다.)
    개인적으론 “AI 가득한 디스토피아가 온다면, 오픈AI 로고보다는 중국, 러시아 국기가 더 위협적으로 보일 것 같다”는 정도로 본다.
  15. 나는 그래도 두려움보다 기대감이 더 크다. 늘 꿈꿔왔던 SF 세계가 다가오고 있다. 생각보다 빠르게 와서 두려움이 느껴지긴 하지만, 그렇다고 크게 다른 대안 경로가 있었을까 싶다. 이 정도면 상당히 긍정적인 타임라인이라고 생각한다.
    앞으로 10년 내 기대되는 것들:
    • 말도 안 되는 물리학적 발견
    • 로봇이 건설한 달·화성 기지
    • 완벽한 과외·조언(거의 가능해졌지만, 제대로 된 검색·기억·개성 기능이 필요)
    • 부작용 없는 약물 개발(바이오 영역)
    • 슈퍼 최적화된 드론을 타고 돌아다니기
    • 핵융합, 지열, 태양광 등 완벽하게 깨끗한 에너지
    • “예측 불가능”이었던 여러 혁신: AI 천문학자가 망원경 데이터에서 외계 신호를 찾아낸다거나, AI 화학자가 상온 초전도체를 손쉽게 발견한다거나, AI 물리학자가 여러 이론을 통합한다거나, AI 수학자가 리만 가설을 증명한다거나…
      이 모든 것들이 이제 ‘공상과학’이라기보단, ‘가까운 과학적 현실’처럼 느껴진다.
  16. 결국엔 초지능(Superintelligence)으로 향하게 된다. 초지능 시대가 오면 물리 법칙이 허락하는 한 뭐든 가능해질 테니, 아마 우리는 불멸에 도전하고 다른 별도 가볼 것이다. 그리고 지금의 ‘고깃덩어리 몸’을 더 나은 것으로 업그레이드할 수도 있을 것이다. 그러나 내가 가장 기대하는 건 ‘우주가 왜 이런지’, 그 근본적인 질문에 대한 답을 얻는 것이다. 10년 전부터 일기에 “AI가 이걸 알려줄 것”이라 쓰곤 했는데, 요즘 상황을 보면 진짜 그 꿈이 이루어질지도 모른다는 생각에 소름이 돋는다.
  17. 이미 많은 사람이 이걸 ‘말도 안 되지만 가능할 것 같다’고 여기고 있다. o3가 그 인식 전환을 가속했고, 앞으로 새 모델이 나올 때마다 점점 더 많은 사람이 비슷한 생각을 하게 될 것이다.
    이제 이 미래가 ‘멋지지 않게’ 되는 건, 결국 우리 스스로의 잘못 때문이다. 예를 들어 여론, 정책, 사회 안정, 국제 협력 등. 이게 잘못되면 정말 끔찍한 미래가 올 수도 있다.
  18. 사람들은 AI 랩들이 인류의 미래를 통제한다고 생각하지만, 난 그렇게 보지 않는다. 그들의 연구는 사실 이미 정해진 수순을 밟는 것에 가깝고, 어차피 한 랩이 안 하면 다른 랩이 할 것이다.
    그러나 우리의 여론, 정책, 사회 안정, 국제 협력은 아직 정해지지 않았다. 불확실하고, 우리가 집단적으로 잘 관리해야 할 영역이다. 결국 ‘미래의 수호자’는 우리 모두라는 얘기다.
  19. 우리가 할 수 있는 일은 많다. 예컨대, 사회를 더 안정시키거나, 사람을 더 똑똑하게 만들 앱을 만들 수 있다(소셜 미디어를 잘 다룰 수 있게 해주는 앱 등). 더 고품질의 정보와 논의를 대중에 전할 수 있다(유익한 SNS 코멘터리, 훌륭한 검색 엔진 등). 혹은 우리 동네를 직접 개선할 수도 있다(지역 정치나 봉사 참여 등). 우리가 살고 있는 도시가 디스토피아 같은 모습이면, 어떤 대의도 설득력과 정당성을 갖기 어렵지 않겠는가.
  20. 많은 사람이 “AI 때문에 삶의 의미를 잃을 것 같다”고 두려워한다. 하지만 정반대가 아닐까? 인류 역사상 가장 중요한 전환기에 살고 있고, 당신은 그것에 영향을 줄 수 있다. 세상을 구하는 일만큼 의미 있는 게 또 있을까? ‘내 커리어만 좀씩 전진하는’ 시대가 그리운가?
    앞으로 여러 직업이 자동화될 것이다. 따라서 우리는 적응해야 한다. 만약 특정 스킬을 통해 정체성을 찾았는데 그 스킬이 5년 뒤 필요 없어지면 어떡하겠는가. 그러니 ‘세계가 필요로 하는 곳이라면 어디든 기여하겠다’는 식으로 의미를 찾아야 한다. 이건 결코 사라지지 않을 가치다.
  21. o3 때문에 ‘무슨 공부를 해야 하지?’ 고민하는 졸업생들에게 내 조언은 ‘주도적으로 문제를 해결하는 능력’과 ‘팀워크를 잘하는 능력’을 길러라 이다. 배우는 특정 스킬은 세계의 변화 속도가 너무 빨라 금방 쓸모없어질 수 있다. 하지만 문제 해결과 팀 협업 능력은 꾸준히 유효할 것이다.
    또 불안정한 세계에서 ‘불안정한 삶’을 기꺼이 수용할 필요가 있을 것이다. 세상이 이상해진다. 10년 뒤 아이 두 명을 낳고 교외 주택에서 개 키우며 사는 전형적 삶이 아닐 수 있다. 대신 ‘사이보그 아이 2명, AI 반려견’과 함께 인터스텔라 우주선에서 살지도 모른다.
AGI 전야인 이 크리스마스이브, 앞으로 닥칠 AGI 전환을 잘 이끌어 달라는 말을 전하고 싶다. 그래야 3024년 크리스마스이브에도, 4광년 떨어진 ‘올트먼 센타우리(Altman Centauri)’ 행성을 돌며 당신에게 인사를 건넬 수 있을 테니까.
전체 2

  • 2024-12-27 14:48

    초지능 시대가 오면 물리 법칙이 허락하는 한 뭐든 가능해질 테니, 아마 우리는 불멸에 도전하고 다른 별도 가볼 것이다. 그리고 지금의 ‘고깃덩어리 몸’을 더 나은 것으로 업그레이드할 수도 있을 것이다.
    이게 십년안이라고 생각하는거셈?


    • 2024-12-27 22:00

      yes

      icon_18.png