▲정희순 산업부 기자. hsjung@ekn.kr
전쟁에 인공지능(AI)을 쓰는 시대가 왔다. 최근 미군이 이란을 상대로 한 전쟁에서 AI가 사실상 두뇌 역할을 했다는 사실이 속속 확인되고 있다.
미국은 이란을 공습하면서 생성형 AI 클로드의 개발사 앤트로픽(Anthropic)과 갈등을 빚은 것으로 전해진다. 앤트로픽은 AI 사용에 나름의 '윤리적 제한' 규정을 두고 있으나, 미 국방부는 민간기업의 윤리 기준이 국가 안보보다 앞설 수는 없다는 논리를 내세웠다. 트럼프 행정부는 앤트로픽을 공급망 위험기업으로 지정하며 제재에 나섰지만, 실제 군사작전에서는 여전히 클로드를 사용하고 있는 것으로 알려졌다. 첨단기술의 침투가 윤리와 정치적 판단을 앞지른 장면이다.
미군은 이번 전쟁에서 타깃을 구분해 선정하고 우선순위를 정하는 데 AI를 썼다고 한다. 이 때문에 '인간을 돕기' 위해 개발된 AI가 '인간을 살상하는' 도구로 쓰이고 있다며 비판하는 시각도 적지 않다. 기술의 비완결성, 오판 가능성 등은 윤리적 기준에 대한 더 명확한 레드라인(red line)을 요구하는 근거다.
이번 사태를 보며 떠오른 책이 있다. 미래학자 후안 엔리케스의 저서 '무엇이 옳은가'이다. 책의 제목에서 풍기는 느낌과는 달리 엔리케스는 '인간성'을 절대적 가치나 최후의 안전장치로 앞세우지 않는다. 오히려 그가 강조한 것은 기술의 발전이 윤리적 기준을 얼마든지 바꿀 수 있다는 점이었다.
가령 증기기관 같은 기술은 과거에는 당연하게 여겨졌던 노예제에 대한 비판을 불러왔고, 의학 기술의 발전으로 흡연과 폐암의 연관성이 밝혀지면서 공공장소 금연이 표준이 됐다. 또 유전학과 뇌과학 기술의 발전으로 성적 지향의 생물학적 근거가 생기면서 동성애에 대한 기준도 바꾸고 있다.
이런 관점에서 보면 전쟁에 AI를 활용하는 것에 대한 윤리적 기준도 얼마든지 바뀔 수 있지 않을까. 어쩌면 후대에는 어떻게 전쟁을 치르면서 AI에게 정확한 판단을 맡기지 않고 사람이 최종 결정을 내릴 수 있냐는 윤리적 비판이 역설적으로 제기될 지도 모를 일이다.
중요한 것은 기술이 윤리를 바꾸는 시점에서 우리가 지녀야 할 태도다. 후안 엔리케스는 무엇이 옳고 그른 지를 고집하기보다 끊임없이 질문하고 논쟁하는 태도가 필요하다고 강조했다. AI는 이미 전쟁의 한 가운데 들어와 있다. 우리 정부와 국민은 어떤 윤리적 기준을 가져야 할지 진지하게 고민해볼 때다.

