유통중기부 이진우 부장(부국장)
아마 올해 초에 있었던 일로 기억된다. 몇몇 지인들과 점심 자리에서 우연히 인공지능(AI) 관련 대화가 오갔다. 이야기의 주제는 생성형 AI '챗GPT'의 등장으로 인공지능이 인간생활 어느 영역까지 파고들 것인가를 희망과 우려의 시각으로 추측하는 내용이었다.
특히 이날 대화에서 흥미로웠던 점은 AI를 사법부에 도입할 경우, 판사와 AI의 역할 규정을 둘러싼 이견이었다. 즉, AI를 주심 재판관으로 맡기는 문제를 놓고 의견이 첨예하게 갈렸다.
이날 참석자 4명 가운데 3명은 인간 판사의 법과 관습에 입각한 '인간다운 판결'을 지지했다. 반면에 나머지 1명은 인간 판사가 재판 관련 데이터를 지원하는 보조역할을 충실히 하면 AI 판사가 불편부당한 법리 해석으로 '법대로 판결'을 낼 것이라는 입장이었다.
우리 법조계에 'AI 판사 등장'이 현실화될 지는 알 수 없지만, 이제 AI 기술 또는 산업은 국가와 개인, 인류 전반에 영향을 미치고 있다.
그럼에도 AI를 보는 인간의 시선은 희망과 우려가 혼재한다. 당장 제약바이오산업에서 난치병 치료에 AI와 빅데이터 기술을 접목해 치료의 난제(결점)들을 찾아내고 '불치 극복'의 새로운 기전 개발 소식이 들리면서 만성적 병마에 신음하는 환자뿐 아니라 무병장수를 꿈꾸는 이들에게 희망을 불어넣고 있다.
AI 기술을 탑재한 자율주행차·항공·선박·드론 등 무인 모빌리티의 급성장, AI 로봇을 이용한 재난지역 구조작업, 심지어 현재의 심각한 이상기후 문제까지 AI가 일정정도 해결할 수 있을 것이라는 장밋빛 전망까지 나와 '착한 AI 만능화' 기대감에 부풀어 있다. AI 개발자와 전문가 대부분은 '착한 AI' 효과가 가져다 줄 인류 유토피아를 선전하고 있다.
반대로 AI 기술은 최근 러시아-우크라이나 전쟁, 이스라엘-하마스 분쟁 등에서 무기체계에 적용돼 인간 살상을 거들고 있으며, 국가나 특정집단이 국민이나 구성원의 개인정보를 독점해 통제하는 강력한 수단으로 변질되는 '나쁜 AI' 사례도 나오고 있다.
이렇듯 착한 AI든, 나쁜 AI든 AI 기술이 지닌 이중성 때문에 컴퓨터 공학자와 정치사회 전문가들은 AI 개발과 사용에 인간윤리 규칙 적용, 활용 절차와 결과 책임을 규정한 법적 장치 등을 제도화하는 노력을 기울이고 있다.
우리나라도 지난 21대 국회에서 '인공지능 기본법'이 추진됐지만 본회의 문턱을 넘지 못하고 회기 만료로 자동폐기됐다. 그러나, 지난 5월 말 22대 국회에 들어서자마자 국민의힘 안철수 의원이 '인공지능 산업 육성 및 신뢰 확보에 관한 법률안'을 가장 먼저 대표발의 포문을 열었다. 이후 8월 28일까지 여야 의원 합쳐 모두 8건의 AI 관련 법안이 발의된 상태다.
내용들은 거의 대동소이하다. 대통령이나 국무총리 직속으로 국가인공지능위원회를 설치해 3년, 5년 단위로 기본계획 수립·운영하고, 과학기술정보통신부 산하 또는 민관기구로 인공지능윤리위원회, 국가인공지능센터, 인공지능협회 등을 실무기구로 두자는 내용들이다. '착한 AI'를 장려·지원하고, '나쁜 AI'를 차단·제재하겠다는 입법 취지와 방향도 비슷하다.
'사피엔스' 저자인 유발 하라리 교수(예루살렘히브리대학)는 AI사회가 데이터 권력에 기반한 '디지털 제국주의'로 변질될 수 있다고 우려하며, 정부나 특정 집단, 기업에 데이터 권력 독점을 막아야 한다고 경고했다.
정치권 차원에서 인공지능법을 서둘러 제정하려 움직임을 바람직하다. 다만, 선진국에 뒤처진 국내 AI 기술을 앞당기려는 조바심 때문에 인공지능법을 공급자(개발기업)나 규제자(정부) 중심 위주로 밀어부쳐서는 안된다. 착한 AI의 최종 수혜자, 나쁜 AI의 최대 피해자는 결국 일반국민일 것이다.
AI기술과 데이터 사용 정보를 일반국민과 공유하고, 효과를 분점하는 'AI 민주주의'가 나쁜 AI의 디스토피아 미래를 막을 수 있다고 강조한 하라리 교수의 충고를 인공지능법을 준비하는 우리 정치권이 되새겨 보길 바란다.