본문 바로가기
AI와의 대화

2028 the global intelligence crisis (Perplexity에게 질문)

by 은지용 2026. 3. 2.

 
 
안녕, 2028 the global intelligence crisis 보고서에 대한 내용을 알고 싶어. 마이크로소프트 이야기도 있었을까?
 
Citrini Research가 낸 “2028 Global Intelligence Crisis”는 실제 경제 전망 보고서라기보다는 “미래에서 써보는 금융사 상상 시나리오”에 가까운 글입니다.
 
보고서가 말하는 핵심 내용

  • AI 에이전트(자율적으로 업무를 처리하는 AI)가 보편화되면서 인간 지능이 더 이상 희소하지 않게 된다는 전제입니다.
  • 그 결과 2028년 6월 미국 실업률이 10.2%까지 치솟고, S&P500 지수가 고점 대비 38% 폭락한 상황을 가정합니다.
  • 화이트칼라 일자리 대량 축소 → 임금 하락 → 소비 둔화 → 기업이 더 AI에 투자하는 악순환을 “human intelligence displacement spiral(인간 지능 대체 소용돌이)”로 부릅니다.
  • 소프트웨어·SaaS·레버리지 M&A, 프라이빗 크레딧 같은 영역이 특히 크게 흔들린다고 상정합니다.
  • 정부는 ‘Transition Economy Act’(전환 경제법), ‘Shared AI Prosperity Act’(공유된 AI 번영법) 같은 이름의 정책으로, AI 연산(컴퓨트)에 세금을 매겨 실직자 지원에 쓰는 구상을 시나리오로 넣습니다.

이 글은 2026년 2월 말 X(트위터)에 링크가 퍼지면서 미국 증시, 특히 IBM 같은 AI 관련주 급락의 촉매 중 하나로 언급되기도 했습니다.
 
마이크로소프트 이야기는?
 
원문 공개분 및 한국/미국 주요 요약 기사들을 보면, 특정 개별 기업(예: 마이크로소프트, 구글, 엔비디아)을 장문의 사례로 파고드는 방식은 아닙니다.

  • 보고서와 이를 다룬 기사들은 “AI 에이전트로 인해 SaaS, 소프트웨어, 화이트칼라 노동, 프라이빗 크레딧, 모기지 시장이 구조적으로 흔들린다”는 식의 섹터·자산군 단위 서술이 중심입니다.
  • 한국 기사들도 이 보고서가 “AI주 급락”의 재료가 됐다는 점을 강조하지만, 개별 기업으로 IBM·엔비디아 등은 언급해도 마이크로소프트를 따로 떼어 상세 분석하는 구조는 아닙니다.

정리하면, 이 ‘2028 글로벌 인텔리전스 위기’ 시나리오는 마이크로소프트 같은 빅테크가 포함된 AI 생태계 전체를 겨냥한 거시·금융 시나리오이지, 마이크로소프트만 콕 집어 분석하는 보고서는 아닙니다.
 
같이 생각해 볼 포인트

  • 이 보고서는 저자 스스로도 “생각 실험(Thought Exercise)”라고 밝히고 있어서, 실제 공식 경제전망이라기보다, “AI가 정말로 모든 지적 노동의 비용을 폭락시킨다면 금융·노동시장에 어떤 일이 벌어질까?”를 과장 섞어 그린 가상 역사입니다.
  • 동시에 월가 투자자들(예: 나심 탈레브)이 비슷한 우려를 언급하면서, “AI 랠리가 너무 과열된 것 아니냐”는 경계심을 키웠다는 점에서 시장 심리에 미친 영향은 현실적이었습니다.

마이크로소프트 부분을 더 보고 싶다면, 원문 안에서 “hyperscalers, cloud, major AI platforms” 같은 표현이 특정 사례와 어떻게 연결되는지 하나씩 읽어보며, 실제 MS 비즈니스(오피스, 깃허브, 애저, 코파일럿)와 겹치는 지점을 비교해보는 식으로 해석하는 게 좋습니다.

고마워.
 
이 생각실험의 주요 맥락을 Matt Shummer가 얼마전 X에 올린 내용, something big is happening 과 비슷한 것으로 봐도 될까?
 
 
두 텍스트가 보는 방향은 꽤 비슷한데, 초점과 톤이 조금 다릅니다.
공통 맥락: “지능의 대량 생산” 시대

  • 둘 다 “AI가 점점 빨라지는 피드백 루프를 타고 있고, 앞으로 2~5년이 지금 상상보다 훨씬 큰 변곡점이 될 것”이라는 문제의식은 공유합니다.
  • 인간 지능/화이트칼라 노동이 더 이상 희소 자원이 아니게 되는 전환, 그리고 그것이 일자리·소득·권력 구조를 재편할 거라는 점도 공통된 배경입니다.

이 의미에서 “생각실험의 큰 스토리라인은 Matt Shumer가 말한 ‘something big is happening’과 비슷하다”고 보는 건 충분히 자연스럽습니다.
다른 지점: 금융 시나리오 vs 생활/경고문

  • Citrini의 ‘2028 Global Intelligence Crisis’는 “실업률 10%대, S&P 38% 하락, 특정 자산군 붕괴” 같은 거시·금융 시나리오에 초점을 둔 가상 역사입니다.
  • Matt Shumer 글은 가족·비개발자에게 보내는 생활 밀착형 경고문에 가깝고, “이미 내 일의 상당 부분을 모델이 하고 있고, 앞으로 대부분의 지식 노동이 재편될 것”을 강조합니다.
  • Shumer는 “2~5년 안에 지금보다 훨씬 혼란스러워질 것”이라고 말하지만, 구체적인 수치나 금융 메커니즘보다는 속도·체감·개인과 조직의 대응에 집중합니다.

어떻게 읽으면 좋을까

  • Shumer 글을 “지금 AI가 어느 속도로, 어떤 감각으로 밀려오는지”를 보여주는 1인칭 체험담으로 두고,
  • ‘2028 위기’ 보고서를 “그 속도가 경제·금융·정책으로 번지면 어떤 최악의 그림까지 상상해 볼 수 있는가”를 그린 3인칭 디스토피아 시나리오로 보면, 둘이 잘 맞물립니다.

그래서 “같은 현상을 두고, 하나는 바닥(개인·업무 현장)에서, 하나는 꼭대기(거시·금융)에서 그린 버전” 정도로 이해하면 꽤 정확한 대응 관계라고 볼 수 있습니다.
 
 
Matt Shumer가 말한 intelligence explosion이란 무엇인지?
 
Matt Shumer가 말하는 “intelligence explosion”은, 고전적인 의미의 지능 폭발 개념을 지금의 상용 모델·에이전트 상황에 거의 그대로 갖다 붙인 표현입니다.
핵심은 두 가지입니다.

  1. 피드백 루프로서의 지능 폭발
  • “똑똑한 AI가 더 똑똑한 AI를 만드는 엔진 역할을 하는 상태”를 가리킵니다.
  • 구체적으로는, 현재의 고성능 모델이 스스로의 코드·프롬프트·에이전트 워크플로우를 개선하고, 다음 버전 모델의 개발·평가·튜닝을 크게 돕는 구조를 말합니다.
  • 이게 반복되면, 모델 능력의 향상이 선형이 아니라 “자기강화 루프(recursive self‑improvement)에 가까운 곡선”으로 빨라진다고 보는 거죠.
  1. 시간이 압축된 발전(“decades into years”)
  • Shumer는 이 피드백 루프가 “수십 년 걸릴 기술·과학·산업 변화를 몇 년(심하면 수개월)로 압축시킨다”는 의미에서 intelligence explosion이라는 말을 씁니다.
  • 예로 드는 건 “현재 모델이 이미 수 시간짜리 전문 업무(리서치, 코딩, 분석 등)를 거의 혼자 처리하고 있고, 이 능력이 4~7개월마다 두 배 가까이 늘어난다면, 1~3년 안에 대부분의 화이트칼라 초기 직무는 구조적으로 뒤집힌다”는 식의 그림입니다.
  • 그래서 이 개념 안에는 단순 성능 향상뿐 아니라, 노동시장·기업조직·지식 생산 방식이 한 번에 재편되는 사회·경제적 ‘폭발’ 뉘앙스도 같이 들어 있습니다.

요약하면, Shumer가 말하는 intelligence explosion은 “스스로를 키우는 AI(자기 향상 루프) + 그로 인해 인간 사회가 감당할 수 없을 정도로 빨라지는 지능·생산성의 가속”을 묶어 부르는 말이라고 보면 됩니다.
 
이 현상이 2028 글로벌 인텔리전스 위기와 어떻게 연결되나
 
Matt Shumer가 말하는 intelligence explosion은, 2028 글로벌 인텔리전스 위기 시나리오에서 묘사하는 “human intelligence displacement spiral(인간 지능 대체 소용돌이)”의 엔진 역할을 하는 현상으로 연결됩니다.
 
1. 위에서 보는 그림 vs 아래에서 느끼는 속도

  • Shumer는 “모델이 스스로 다음 세대 모델 개발을 돕는 자기강화 루프가 시작됐다, 수십 년 분량의 기술·업무 변화가 몇 년 안에 압축되고 있다”는 의미로 intelligence explosion을 말합니다.
  • 2028 보고서는 “AI 능력이 너무 빨리, 너무 싸게 좋아져서 기업들이 대규모 화이트칼라 인력을 자율 에이전트로 갈아끼우는 상황”을 전제하고, 그 파급이 실업·소비·주택·신용시장으로 번지는 거시적 결과를 그립니다.

즉, Shumer의 폭발은 “바닥에서 관찰되는 지능·능력의 가속”, 2028 위기는 “그 가속이 경제 시스템 전체를 뒤흔든 뒤의 매크로 상태”에 해당합니다.
 
2. 같은 피드백 루프의 두 표현
두 텍스트가 사실상 같은 구조를 다른 언어로 설명합니다.

  • Shumer 쪽: “AI가 일을 더 잘하게 됨 → 더 많은 일을 AI에게 맡김 → 그 결과 AI가 스스로를 더 강화하는 루프”로 표현하며, 이를 intelligence explosion이라 부릅니다.
  • 2028 보고서 쪽: “AI 능력 향상 → 인력 감축 → 소비 둔화·마진 압박 → 더 많은 AI 투자 → 다시 능력 향상”을 “인간 지능 대체 소용돌이”라는 경제·금융 중심 언어로 설명합니다.

같은 “자기강화 루프”를 한쪽은 기술·업무의 눈높이에서, 다른 쪽은 노동시장과 금융시장의 눈높이에서 서술한 셈입니다.
 
3. 연결 고리: 희소 자원에서 흔한 자원으로

  • Shumer는 “몇 년 안에 대부분의 지식 노동이 기계와의 경쟁/협업 구조로 재편될 것이고, 많은 직무가 그대로는 유지되기 어렵다”고 경고합니다.
  • 2028 보고서는 “지난 200년 동안 경제 시스템은 ‘인간 지능이 희소하다’는 가정 위에 설계됐는데, 이제 그 프리미엄이 빠르게 사라지며 재가격(불안정한 조정)이 일어나고 있다”고 말합니다.

Shumer가 말하는 intelligence explosion이 “인간 지능의 희소성 붕괴가 실제로 진행되는 과정”이라면, 2028 글로벌 인텔리전스 위기는 “그 붕괴가 충분히 진행된 뒤 드러나는 거시적 후유증”이라고 볼 수 있습니다.
 
인텔리전스 폭발 대비 개인이 할 수 있는 준비?
 
개인이 할 수 있는 준비는 “AI와 경쟁하지 말고, AI를 지렛대로 삼는 방향으로 삶 전체를 재설계하는 것”에 가깝습니다.
1. 일과 스킬: AI를 도구로 쓰는 쪽에 서기

  • 지금 하는 일의 전체 프로세스를 적어보고, 그중 “AI가 대신/보조할 수 있는 단계”를 먼저 찾아서 실제로 써보는 습관을 들입니다.
  • 단순 반복·리서치·초안 작성은 AI에게 넘기고, 본인은 문제 정의, 방향 결정, 품질 최종 판단처럼 고차원 단계에 집중하는 구조로 일을 재설계합니다.
  • “프롬프트 잘 쓰기”를 넘어서, 여러 도구를 엮어 워크플로우를 만드는 능력(에이전트 오케스트레이션)에 익숙해질수록 유리합니다.

2. 역설적으로 더 중요한 인간 고유 능력

  • 지식 암기가 아니라, 비판적 사고·질문력·글쓰기·토론 같은 “깊이 있는 사고력”이 점점 중요해집니다.
  • AI가 준 답을 그대로 쓰지 말고, 항상 “왜?” “다른 관점은?”을 붙여 재구성하고, 짧게라도 자신만의 문장으로 정리하는 습관을 들이면 사고력이 유지됩니다.
  • 공감, 협상, 신뢰 구축, 팀 운영처럼 사람 사이의 복잡한 이해관계를 다루는 능력은 여전히 희소 자원이 됩니다.

3. 커리어 전략: 직무보다 문제 영역에 투자

  • 특정 직무(예: “파워포인트 잘 만드는 사람”)가 아니라, 특정 문제 영역(예: B2B 세일즈, 헬스케어, 교육 등)에 대한 이해와 네트워크를 쌓는 것이 더 안전합니다.
  • “AI가 들어와도 여전히 남는 핵심 가치가 무엇인지”를 각 산업별로 생각해 보고, 그 지점(규제 이해, 고객 심리, 현장 운영 등)에 본인의 시간을 더 배분합니다.
  • 한 번에 큰 전환을 하려 하기보다, 지금 일 안에서 AI 활용 비중과 책임 범위를 조금씩 넓혀 “안에서부터 역할이 바뀌게 만드는” 방향이 리스크가 적습니다.

4. 자산과 리스크 관리

  • 노동 소득 의존도가 높을수록, 스킬 업그레이드와 함께 현금·유동성 비중을 일정 부분 유지해서 “실험할 수 있는 시간”을 확보하는 게 중요합니다.
  • 단기 테마성 AI 투자 대신, “AI로도 대체되기 어려운 실물 자산·네트워크(지역 기반 비즈니스, 커뮤니티, 신뢰 관계 등)”를 함께 키워 두면 충격 흡수력이 커집니다.

5. 생활과 학습 방식의 전환

  • 정보 소비 비중(영상, 피드)만 늘리는 대신, 책·긴 글을 꾸준히 읽고 메모·요약을 하는 루틴을 유지하면 장기적 사고력이 지켜집니다.
  • 아이나 후배 세대에게는 “정답 맞히기 교육”보다, 도구를 쓰면서도 스스로 문제를 정의하고 프로젝트를 완수해 보는 경험(작은 서비스 만들기, 동아리 활동 등)을 많이 주는 것이 좋습니다.

요약하면, 인텔리전스 폭발을 “거대한 외부 재난”이라기보다 “도구 환경이 완전히 바뀌는 사건”으로 보고,

  1. AI 활용 능력, 2) 인간 고유 역량, 3) 산업/문제 도메인 이해, 4) 재정·시간 완충 장치, 5) 깊이 있는 학습 습관
  2. 이 다섯 축을 균형 있게 키워놓는 것이 현실적인 개인 전략에 가깝습니다.

Matt Shumer가 제안한 대응 전략은?
 
Matt Shumer가 제안하는 개인 대응 전략의 키워드는 “조기 적응(Early adoption)”이랑 “능동적 실험”이에요.
 
1. 유료·최신 모델을 바로 쓰기

  • 무료 버전이나 구형 모델만 쓰면서 “AI 별거 아니네”라고 판단하지 말고, 월 몇 만 원 수준의 유료·최신 모델을 실제 업무에 붙여보라고 합니다.
  • 이유는 “성능 격차가 너무 크기 때문에, 무료 모델 기준 인상(mental model)을 가진 사람은 이미 한참 뒤처진 상태에서 게임을 시작한다”는 것에 가깝습니다.

2. AI를 검색창이 아니라 “동료”로 쓰기

  • 단순 질의응답이나 요약용이 아니라, 실제로 몇 시간짜리 업무(리서치, 코드 작성, 분석, 문서 초안 등)를 통째로 맡겨보고, 그 결과를 다듬는 식으로 써보라고 합니다.
  • 즉 “구글처럼 한두 줄 묻는 도구”가 아니라 “업무를 대신 처리하는 준-직원”으로 대하는 관점 전환을 요구해요.

3. 매일 최소 1시간, AI로 자신의 일을 재설계

  • Shumer가 특히 강조하는 게 “하루 1시간 규칙”으로, 매일 최소 1시간은 자신의 일을 AI와 함께 다시 설계·자동화해 보라는 것입니다.
  • 오늘 하는 업무 중 일부를 “내가 직접 하는 것”에서 “AI가 하고 나는 검수·결정만 하는 것”으로 바꾸는 실험을 계속하라는 뜻이에요.

4. 적응력·학습 속도를 최우선 역량으로 삼기

  • 특정 스킬 하나(어떤 프로그래밍 언어, 툴 사용법)에 집착하기보다, 새 모델·도구·워크플로우가 나올 때마다 빠르게 이해하고 적용하는 “메타 스킬”을 핵심 경쟁력으로 삼으라고 합니다.
  • 요지는 “어떤 직무도 중기적으로 안전하지 않으니, 변화에 빨리 올라탈 수 있는 사람만 버틴다”는 전제예요.

5. 재정 방어선 만들기

  • 고용 충격 가능성이 크다고 보기 때문에, 일정 기간 소득이 줄어도 버틸 수 있는 비상자금·현금 쿠션을 쌓으라고 직접적으로 조언합니다.
  • “과감한 베팅”보다, 실험할 시간을 사 줄 수 있는 안전마진을 먼저 확보하라는 쪽에 가깝습니다.

6. 지금이 “기회의 창”이라는 인식

  • Shumer의 톤은 공포煽動보다는 “대부분은 아직도 현실을 잘 모르고 있어서, 지금 먼저 움직이는 사람들이 압도적인 레버리지(생산성 격차)를 가져갈 수 있다”는 메시지에 가깝습니다.
  • 그래서 핵심 요약은 대충 이 한 문장으로 압축돼요:
  • “겁내기보다, 남들보다 1~2년 먼저 AI를 제대로 쓰는 사람이 게임을 이긴다.”

 
 
 
==
 
Perplexity에게 질문한 내용 기록...

'AI와의 대화' 카테고리의 다른 글

Gatsby, Daisy, Chicken, and Beer  (0) 2024.11.09
Is Gatsby Great?  (0) 2024.11.09
At the enchanted metropolitan twilight  (0) 2024.11.09
Is Gatsby Great?  (0) 2024.08.29
Gatsby Daisy Chicken Beer 2  (0) 2024.08.28