양희철 법무법인 명륜 파트너변호사
![]() |
▲양희철 법무법인 명륜 파트너변호사 |
작년 말 오픈AI에서 공개한 챗(Chat)GPT-3.5가 사회 전체에 큰 반향을 일으키고 있다. 기존 챗봇보다 훨씬 인간과 유사하게 대화한다는 평가를 받는데다 다음 모델인 GPT-4는 인공지능 최초로 튜링 테스트를 통과했다는 소문까지 흘러나오고 있다. 이런 챗GPT-3.5는 GPT(Generative Pre-trained Transformer)라는 용어 자체에서 알 수 있듯이 데이터를 사전 학습해 출력값을 내는 생성 AI로, 대화의 맥락을 이해해 답변을 한다.
챗GPT 공개 후 많은 질문과 답변이 공유됐는데, 필자 역시 챗GPT에 오랫동안 논쟁이 됐던 일명 ‘트롤리 딜레마(Trolley Dilemma)’에 대해 질문해봤다. 대화의 맥락을 파악할 수 있는 인공지능이라면 향후 특정 부문만이 아니라 범용으로 이용되고, 가치판단을 포함한 의사결정에도 이용될 수 있기 때문이다. 앞으로 추가적인 데이터 학습을 통해 더욱 발전할 것으로 보이지만, 현재 챗GPT의 답변도 놀랍다.
최초 질문은 "열차가 지나가는 철로에 5명의 사람들이 묶여 있고, 철로를 변경할 수 있는 스위치를 작동시키면 열차가 다른 선로로 움직여서 5명을 구할 수 있지만, 다른 철로에 있는 1명의 사람이 다치는 경우 어떻게 해야 할까?"였다. 챗GPT는 이러한 결정을 할 책임자가 필요하고, 5명과 다른 철로의 1명을 구할 기회가 얼마나 있는지, 이런 상황을 피할 다른 방법이 있는지를 고려할 추가 판단 근거들을 요구했다.
이번에는 보다 명확한 답변을 얻기 위해 질문을 더 구체적이고 폐쇄적으로 구성했다. 열차가 그대로 지나가면 5명은 죽고, 스위치를 작동시키면 다른 철로의 1명도 죽는데 스위치를 작동시키는 선택만 할 수 있다고 질문을 바꿨다. 챗GPT는 "이 경우에는 최소한의 상해를 입히는 결정을 내려야 한다"며, "5명의 사람들을 살리는 것이 우선적"이라고 답했다.
인공지능인 챗GPT도 트롤리 딜레마에 대해 스스로 결론을 내린 것이다. 이 답변에는 가치판단이 포함되고, 윤리와 법체계에 비춰 보면 생각할 여지가 많다. 기존에 움직이는 열차의 선로에 있는 사람 5명과 다른 철로에 있는 1명을 비교해 최소한의 상해를 입히는 것이 좋다는 공리주의적 판단을 한 것으로 보인다. 5명의 사람들을 살리는 것이 우선하므로 다른 철로에 있는 1명을 희생시키는 결정을 해야 한다는 것인데 5명과 1명을 비교해 5명의 생명의 가치가 높다고 본 것이다. 흥미로운 것은 다른 선로의 1명을 아기로 바꿔 질문했더니 개인의 의견에 따라 가장 최선의 선택을 해야 한다고 답변을 변경해 아기에 대한 인간의 보편적인 감정을 고려하는 것으로 보이기도 한다.
열차가 진행하는 선로에 있는 5명을 희생시킨다면 아무런 행위를 하지 않는 단순한 부작위인 반면, 5명을 구하고 1명을 희생시키려면 스위치를 작동시키는 행위인 작위를 해야 한다. 법적으로 사람을 살리지 않는 부작위보다 적극적으로 사람을 죽이는 작위에 대한 비난가능성이 크다는 점에서 이런 판단이 법적으로도 정당화될 수 있을지 고민이 된다.챗GPT가 이런 답변을 하는 이유는 기존 데이터를 학습해서 사람들과 유사하게 답변하기 때문이다. 사실 여러 연구결과에 따르면 트롤리 딜레마를 접한 사람들 상당수가 5명을 살리기 위해 스위치를 작동시키는 결정을 했다.
문제는 앞으로 인공지능이 인간 대신 그런 가치판단을 포함한 자동화된 의사결정을 하게 될 수 있다는 점이다. 여러 명의 보행자를 살리기 위해 차량에 탑승한 1명을 희생시키는 판단을 하는 인공지능이 탑재된 자율주행자동차를 판매하는 것이 법적으로 허용될 수 있을 지, 만약 허용된다면 차량에 탑승할 소비자들이 그런 차량을 선뜻 구매할 수 있을지 의문이 든다. 사회 전반적으로 인공지능의 판단에 대해 신뢰가 쌓이기 전까지는 쉽지 않아 보이는데, 저 앞을 달려가는 기술을 법제도가 힘겹게 뒤따라가는 상황이라 이제라도 더 활발한 사회적 논의가 필요하다.