윤덕균 한양대학교 시스템공학부 명예교수
11월 30일은 대화형 AI인 챗GPT가 세상에 등장한 지 2년이 되는 날이다. 챗GPT의 개발은 AI가 특정인의 전유물에서 대중화를 촉발했다. 대중화가 진행됨에 따라 고객들의 기대 심리에 따라 AI의 품질 중요성은 증대된다. AI가 사회 전반에 큰 영향력을 끼치는 만큼, 오류에 의한 역작용도 만만치 않다. AI 시대의 품질 과제는 3단계로 요약된다. ① AI를 구성하는 하드웨어 품질 ② AI 소프트웨어 품질 ③ AI의 환경을 구성하는 국가 시스템 품질이다. AI 시대에도 기업의 기본은 품질이라는 것을 입증하는 사례가 바로 삼성전자와 SK하이닉스의 현 상황이다. SK하이닉스는 2024년 3분기 영업이익 규모가 넘사벽이라고 하는 삼성전자 반도체 부문의 2배다. 주된 원인은 SK하이닉스는 AI용 반도체 전문업체인 엔비디아에 HBM(고대역 메모리)을 납품하고 있는데 삼성전자는 품질 테스트에서 실패했다. 이유는 삼성전자는 10나노급 D램 반도체 미세 공정에서 SK하이닉스에 품질이 뒤져 있기 때문이다.
중국의 한 전시회에서 인공지능이 탑재된 안내 로봇 샤오팡이 오작동 난동으로 부상자가 발생했다. 오작동으로 판명됐지만, 인공지능 위험성의 한 단면이다. 이 같은 AI 로봇 사고 사례는 많다. 2016년 미국의 경비 로봇 오작동으로 16개월 된 아기를 공격했다. 2016년 2월에는 구글 무인 자동차가 시험 주행 중 버스와 사고를 냈다. 2015년 6월 독일 폭스바겐 제조 로봇 오작동에 엔지니어가 사망했다. 유럽 배터리의 희망이라고 하는 스웨덴 배터리 셀 제조사 노스볼트가 미국에 파산보호를 신청했다. 이유는 북유럽의 적은 노동시간, 고임금 등 과도한 '노동 중시' 환경에 발목을 잡혔다는 분석 뒤에는 근본적으로 10개를 만들면 불량품이 6개에 달할 정도로 수율을 끌어올리지 못한 데 있다. 최근에 중국 홍성 신문에 의하면 중국의 IT업체 샤오미가 최근에 자체 개발한 전기차의 주차 기능 고장으로 70여 대가 파손되는 사고가 났다.
AI의 소프트웨어품질은 AI 모델의 품질과 학습용 데이터의 품질로 대별 된다. 특히 데이터 품질은 AI 성능을 결정하는 요소 중 하나다. 좋은 AI 모델을 도입한다 해도 고품질 데이터 없이는 원하는 결과를 얻기 어렵다. 얼마나 많은 데이터를 학습하느냐는 AI 성능을 결정하는 요소이다. 2016년 3월에는 MS 언어습득 AI 로봇이 인종차별 표현으로 가동 중단되었다. 2017년 중국이 만든 인공지능 채팅 메신저가 중국에서 퇴출당했다. 채팅 메신저 '베이비Q'가 이용자가 “공산당 만세"라고 입력했더니 “부패하고 무능한 정치가 오래갈 것으로 생각하냐?"고 반문했다. 다른 챗봇 'QQ 샤오빙'도 “너의 중국몽이 뭐냐?"고 묻자 “미국 이민"이라고 답했다. 두 챗봇이 중국에 대한 거침없는 비판을 쏟아낸 배경은, 챗봇에 적용된 실시간 대화 기능이 미국 마이크로소프트사가 만든 빅데이터에 기반을 뒀기 때문이다. 급기야 인공지능에 의한 중국 민주화 봉기라는 댓글까지 등장하자, 중국에서 챗봇 서비스가 폐쇄됐다.
국가 시스템의 품질 문제는 인공지능의 오류에 의한 사회 영향을 최소화 하기 위한 규제 도입을 위한 고민에서 나온다. 규제가 강할 경우 AI의 개발을 제약하고 약할 경우 역효과가 발생한다. AI의 발달로 범람하는 가짜뉴스, 인물의 이미지를 실제처럼 합성하는 '딥페이크' 등이 사회적 혼란을 가져올 수 있다. 유럽연합은 위험 기반 접근 방식을 적용해 AI를 규제하는 'AI 법'을 지난 6월 초안이 통과됐으며, 2026년 법안 시행을 목표로 한다. 더욱이 미국에서 트럼프가 당선되면서 딥페이크 문제는 진실과 거짓의 경계를 모호하게 만들었다. 딥페이크의 일부가 트럼프와 머스크에 의해서 자의적으로 만들어진 것들이다. 이는 AI가 진실 개념 자체를 불안하게 한다. 모두 것이 가짜일 수 있고 진짜도 조작되었다고 주장할 수 있다. AI 시대일수록 품질 또 다른 측면에는 신뢰성이 기업의 기본임을 확인한다.