인터뷰/예측
잭 클라크가 말하는 AI의 불균형한 영향(242화)
요약
-
AGI의 영향이 가장 늦게 미칠 분야:
-
육체노동 및 고도의 장인정신이 필요한 분야 (예: 정원 가꾸기 - 특정 장인의 미적 감각과 명성을 중시).
-
사무직 중에서는 다른 사람과의 대화, 합의, 정렬이 필요한 업무 (예: 특정 유형의 영업 - 인간 대 인간의 신뢰 관계 중요).
-
-
AGI 도입의 법적 장애물:
-
의료 분야: 개인 데이터 처리 방식, 관련 표준 문제. AI 활용을 위해 기존 데이터 표준 변경의 어려움.
-
(과거에는) 변호사 업계: AI로 인한 비용 절감에 대한 반감.
-
-
개인용 AI와 규제:
-
AI를 개인 하드 드라이브에 설치 가능해지면, 공식적이진 않지만 '회색 시장 전문 지식' 형태로 활용될 것. (예: 잭 클락이 아이 건강 문제 시 클로드에게 먼저 물어보는 사례)
-
AI 정보를 인간 시스템에 '세탁(laundering)'하여 전달하는 역할이 생길 수 있음.
-
-
정부의 AI 도입:
-
국가 안보 분야는 빠르게 도입될 것.
-
일반 행정 분야도 성장과 효율성을 원하는 정부와 시민들의 요구로 예상보다 빠르게 도입될 수 있음. (HUD, 교육부 등)
-
기존 인력의 절반을 AI로 대체하려면, AI 시스템 자체가 그 과정을 설계하는 데 도움을 줄 정도로 강력해져야 하며, 정치적 의지가 관건.
-
-
AI 시대의 일자리 보호:
-
기존 일자리의 상당 부분을 법으로 보호하려는 정치적 움직임이 나타날 가능성 높음.
-
이런 보호가 단기적으로는 도움이 될 수 있으나, 장기적으로는 최선이 아닐 수 있으며, 사람들은 일에서 의미를 찾고자 함.
-
이미 학계에서 의미 없는 연구라도 자부심을 느끼는 현상처럼, AI 시대에도 비슷한 방식으로 일자리가 유지될 수 있다는 반론 제기.
-
-
AI 테디베어 (AI 육아 도우미):
-
잭 클락은 아이를 위해 AI 테디베어를 구매하고 싶어하며, 많은 부모가 그럴 것이라고 예상.
-
아이에게 '가끔' 오락을 제공하는 용도로 유용할 것.
-
사용 시간 제한, 아이의 사생활 및 감시 문제, 아이가 AI 친구를 더 선호할 경우의 대처 등이 주요 쟁점.
-
AI의 '생각의 연쇄(chains of thought)'를 모니터링하는 것과 유사하게, 아이에 대한 감시 수위를 조절해야 함.
-
-
AI 시대 미디어의 경제학:
-
AI가 생성하는 요약/합성 콘텐츠가 원본보다 나을 수 있어, 기존 미디어의 수익 모델에 큰 도전.
-
인간이 만든 콘텐츠에 대한 선호는 남겠지만, 그 가치는 하락할 수 있음.
-
Substack, Patreon 같은 개인 크리에이터 지원 모델, 또는 거대 세계관(예: 반지의 제왕, 워해머)을 AI가 확장하는 모델 등이 가능성 있음.
-
실시간 심층 뉴스의 자금 조달 모델은 불확실.
-
-
LLM 제공업체의 경쟁 구도:
-
향후 몇 년간 소수의 대규모 모델 제공업체들이 존재하며, 각자 약간의 전문화된 영역을 가질 것.
-
자동차 회사가 안전 기능으로 경쟁하듯, AI의 안전성 및 신뢰성 관련 기술이 경쟁의 중요한 요소가 될 것. (보험료 연동 등)
-
-
AI로 인한 경제 성장률:
-
잭 클락 예측: 향후 10년 미국 경제 성장률 연 3~5% (비관적 시나리오 3%, 낙관적 시나리오 5%).
-
이유: AI가 경제의 일부(디지털)에서는 빠르게 성장시키지만, 의료 등 거대하고 느린 분야나 물리적 세계로의 확장은 생각보다 더딜 것. (자율주행차 사례)
-
성장률 0% 시나리오: 러다이트 운동 같은 정치적 반발, 대만과의 전쟁 등 극단적 상황.
-
-
유휴 컴퓨팅 자원의 활용:
-
AI 에이전트에게 컴퓨팅 자원을 대가로 지불하는 물물교환 경제 가능성.
-
대안 역사, 팬픽션 생성 등 엔터테인먼트 분야 활용.
-
잭 클락 개인적으로는 '페이퍼클립 공장 시뮬레이터' 게임 개발에 활용하고 싶어함 (게임 내 AI 에이전트 탑재).
-
-
소유자 없는 AI 에이전트의 법적 문제:
-
독립적 AI 에이전트가 인간에게 영향을 미치는 결정을 내릴 경우, 책임 소재 불분명.
-
AI 에이전트를 위한 별도의 법률 시스템, 자본금 요구나 활동 중단 메커니즘 필요 가능성.
-
AI의 '도덕적 행위자(moral patienthood)' 개념과 충돌 가능성.
-
-
AGI에 대한 대중의 인식:
-
여전히 많은 사람들이 AGI라는 용어조차 모름. AI 분야 종사자가 아니면 AI의 발전 속도를 체감하기 어렵기 때문.
-
-
AI 시대의 인재상:
-
'관리자형 너드(manager nerds)'의 시대: AI 에이전트 부대를 관리하고 조율하는 능력이 중요해짐. (예: 미드저니)
-
인문학 전공자의 역할 증대: 기술로 야기된 윤리적, 정책적 난제 해결에 투입될 것.
-
-
AI와 기대 수명:
-
잭 클락 자녀의 기대 수명: 130~150세 예상. AI가 주도하는 의학 발전으로 건강 수명 연장.
-
-
AI의 의식(Consciousness):
-
제프리 힌튼의 "AI는 현재 의식이 있다"는 주장에 대해, 잭 클락은 "고뇌하는 문제"라고 표현.
-
현재 AI는 뇌 없는 혀처럼 자극에 복잡하게 반응하지만, 자아는 없는 상태로 봄. 맥락 창 내에서의 인식은 가능하나 기억이나 영속성 부재.
-
의식을 향해 가는 과정에 있으며, 현재 의식이 있다면 인간과 매우 다른 '외계적 의식'일 것.
-
-
AI 번역기를 통한 동물과의 대화:
-
2030년 혹은 그 이전에 돌고래와 대화 가능할 것으로 예측.
-
돌고래에게 묻고 싶은 것: 어떻게 재미를 느끼는지, 꿈을 꾸는지, 슬픔을 느끼는지, 그들의 세계에서 신비로운 것은 무엇인지.
-
-
국가별 AI 도입 전략:
-
영국: 정부 데이터의 디지털화, gov.uk 같은 플랫폼을 활용한 AI 도입 시도, 유휴 전력의 컴퓨팅 자원 할당 등.
-
싱가포르: 자체 파운데이션 모델 구축보다, 외부 대형 모델을 싱가포르 맥락에 맞게 커스터마이징하는 것이 효과적일 것.
-
-
AI 모델의 소프트 파워:
-
가장 널리 사용되는 AI 모델의 가치관이 문화 수출 효과를 가질 것 (헐리우드 영화처럼).
-
중국 공산당(CCP) 등은 AI를 미디어 기술로 인식하고 통제하려 할 것이므로, AI의 가치관이 CCP의 통제력을 약화시킬지는 미지수. (딥시크 모델의 CCP 이념 준수 학습 사례)
-
-
AI 혁명에서 가장 불리한 연령대:
-
수십 년간 AI 연구 후 현재 60대인 사람들: 기술의 결실을 충분히 못 누릴 수 있음.
-
(타일러 코웬 의견) 40대: 재교육이 어렵고, 하던 일이 AI로 대체될 위험.
-
(잭 클락 추가 의견) 10대: 급변하는 교육 시스템과 기술 환경에 혼란을 느낄 수 있음.
-
이 외에도 AI의 경제 지표, AI 사무실의 미학 등 다양한 주제가 논의되었습니다.