[김한성의 AI시대] 설명할 수 없는 권력: 트럼프와 AI의 교훈

에너지경제신문 입력 2025.10.13 22:59

김한성 굿프롬프트 대표




김한성 굿프롬프트 대표

▲김한성 굿프롬프트 대표

세상이 복잡해 질수록 우리는 단순한 답을 원한다. 문제가 얽힐수록, “나만이 해결할 수 있다"는 말이 '달콤해진다'. 도널드 트럼프의 재선은 이 역설의 완벽한 증명이다. 91건의 형사 기소, 두 차례 탄핵, 2021년 1월 6일 의회 난입을 선동했던 인물이 2024년 대통령에 재선되어 돌아왔다. 전통적 정치 논리라면 이는 불가능한 시나리오다. 2025년 1월 취임 후 트럼프의 행보는 대통령 행정명령(Executive Order)을 남발하며 마치 거짓말 탐지기의 바늘이 요동치듯 쏟아지는 서명으로 민주적 규범과 제도를 악화시키하고, 몇 개의 숫자로 관세를 무기화하면서 세계 무역 질서를 흔들고 있다. 이것은 일시적 착오인가, 아니면 구조적 문제인가? 이것은 미국만의 문제가 아니다.


이에 대한 답을 찾기 위하여 200년을 되돌아 본다. 제1시대(1825~1890년: 볼 수 있는 권력)는 증기기관, 철도처럼 복잡했지만 투명했다. 공장장이 기계를 이해했고, 노동자도 그 작동원리를 눈으로 확인할 수 있었다. 권력의 위치도 공장, 의회, 국경 처럼 분명했다. 제2시대(1890~1970년: 믿어야 하는 권력)는 전기 그리드는 엔지니어가 필요했다. 원자폭탄은 과학자만 이해했다. 지식이 실험실로 옮겨갔고, 국제연합, 대기업, 정부 부처가 복잡한 세상을 관리할 수 있었다. 제3시대(1970년대~지금: 설명할 수 없는 권력)는 페이스북 알고리즘이 뉴스를 선택하고, AI가 대출과 채용을 판단한다. 개발자조차 이 시스템이 어떻게 작동하는지 완전히 설명하지 못한다. 더 큰 문제는 권력이 어디 있는지도 불분명하다. 구글과 페이스북은 국경을 넘나들며 작동한다. 역사의 패턴은 명확하다. 기술이 한 단계씩 도약할 때마다 기존 제도는 뒤쳐진다. 국가, 노동조합, 전통 언론 등 20세기 제도들은 21세기 디지털 세상에서 제대로 작동하지 않는다.



이 맥락에서 트럼프 현상은 제3시대의 모순이 폭발한 결과다. 즉, 알고리즘이 복잡한 세상을 관리한다(정립, Thesis). 그러나 시민들은 자신의 삶을 통제할 수 없다고 느낀다(반정립, Antithesis). 모순의 핵심은 효율성이 증가하는데 인간 주체성은 상실된다. 이것이 트럼프를 만들었다. 첫째, 미디어 변화다. 트럼프는 트위터로 직접 수천만 명에게 말한다. 알고리즘은 진실보다 “참여"를 우선하며 그의 과격한 발언을 증폭시킨다. 둘째, 경제 변화다. 과거 공장 노동자는 동료들과 노조를 만들었지만, 지금 배달 라이더는 앱 속에서 혼자 일한다. 셋째, 현실의 파편화다. 알고리즘이 각자에게 다른 세상을 보여주며 공통의 사실 기반이 사라졌다. 트럼프의 “나만이 해결할 수 있다"는 이 모순을 제1시대로 돌아가 해결하려는 허구이다. 물론 19세기 방식으로 21세기 문제를 풀 수는 없다. 하지만 제도가 현실을 따라잡지 못할 때, 사람들은 과거의 단순함을 그리워하며 과거의 영광으로 회귀하려는 경향이 있다. 그러나 진정한 종합(Synthesis)은 다른 곳에 있다. 일고리즘의 능력을 유지하면서도 인간의 이해 가능성을 회복하는 것, 역설적이게도, 우리를 이 상황에 빠뜨린 AI가 그 해법의 단서를 준다.


AI 개발자들도 같은 문제와 씨름한다. AI가 너무 복잡해서 왜 그런 결정을 내렸는지 모른다. 이것이 AI 정렬 문제(Alignment Problem)다. 똑똑한 AI가 엉뚱한 목표를 추구하면 재앙이다. 사회도 똑같다. 알고리즘이 똑똑해졌지만 우리와 '정렬'되지 않았다. 페이스북 알고리즘의 목표는 '참여 극대화'지만 우리의 목표는 '진실한 대화'다. 둘이 어긋나서 가짜뉴스가 퍼진다. AI 안전 기술을 사회에 적용하는 방법은 세 가지다. 첫째, 설명 가능한 AI(XAI)다. AI에게 “왜?"라고 물을 수 있듯이, 유튜브 알고리즘도 “이 영상은 당신의 과거 시청 60%, 인기도 30%, 광고주 비용 10%로 추천됐다"고 설명해야 한다. 식품 회사가 영양 성분표를 붙이듯, 정보에도 '추천 성분표'를 붙이는 것이다. 둘째, 적대적 테스트다. AI 개발자가 일부러 AI를 속여보며 약점을 찾듯이, 정부도 새 정책 발표 전 비판 팀이 허점을 찾도록 법으로 의무화해야 한다. 셋째, 인간 피드백 학습이다. AI가 인간 피드백을 받으며 학습하듯이, 무작위 추출된 시민 패널이 알고리즘을 감독하는 '알고리즘 배심원제'를 도입할 수 있다. 이것은 공상이 아니다.




새로운 시대를 맞이하기 위해서는 세 가지가 필요하다. 첫째, 알고리즘 투명성을 법으로 만들어야 한다. 일정 규모 이상의 소셜미디어나 검색엔진은 자신들의 추천 시스템이 어떻게 작동하는지 공개해야 한다. 기업 기밀을 다 공개하라는 것이 아니다. 식품 회사가 정확한 레시피는 숨겨도 영양 성분은 공개하듯, 핵심 원리는 설명해야 한다는 것이다. 둘째, 데이터를 공공 자산으로 봐야 한다. 지금은 거대 기업이 우리의 데이터를 독점한다. 대안이 있다. 데이터를 공공 신탁처럼 관리하는 것이다. 시민들이 자신의 데이터가 어떻게 쓰이는지 결정권을 갖는 방식이다. 셋째, AI 이해 능력을 기본 교육으로 만들어야 한다. 지금 학교에서 읽기, 쓰기, 셈하기를 가르치듯, 알고리즘 읽기도 가르쳐야 한다. 뉴스 피드가 어떻게 만들어지는지, 추천 시스템에 어떤 편향이 있을 수 있는지, 어떻게 비판적으로 볼 것인지를 모든 학생이 배워야 한다.


증기기관이 사회계약을 다시 썼듯이, 우리는 지금 인공지능 시대의 새로운 사회계약을 쓰고 있다. 트럼프는 지나갈 것이다. 대통령 임기는 정해져 있다. 하지만 그를 가능하게 만든 구조적 문제—복잡한 기술과 낡은 제도 사이의 간극—는 우리가 메우지 않으면 계속 벌어질 것이다. 그리고 다음번에 더 위험한 누군가가 올 것이다. 우리는 두 가지 미래 중 하나를 선택하게 될 것이다. 하나는 알 수 없는 알고리즘이 우리를 지배하고, 우리는 점점 더 무력해지는 미래다. 다른 하나는 기술을 투명하게 만들고, 그것을 민주적으로 통제하며, 인간의 능력을 진정으로 확장하는 미래다. 하지만 역사는 우리에게 희망을 준다. 인류는 항상 새로운 도구에 맞는 새로운 규칙을 만들어왔다. 증기기관 이후 노동법이 왔다. 원자폭탄 이후 국제연합이 왔다. 지금 인공지능 이후에도 무엇인가 올 것이다. 단, 우리가 그것을 의식적으로 선택한다면 말이다.



기자 기사 더 보기

0



TOP