▷AI는 공정하리라는 기대와 달리 편향적이다. 아마존은 AI 채용 프로그램을 개발했다가 남성 지원자를 과대평가하는 편향을 발견하고 폐기했다. AI는 직원들의 축적된 인사고과 자료를 기준으로 판단하는데 고과를 잘 받는 핵심 부서엔 남성이 많았던 것. AI 재판 지원 시스템에서는 흑인의 재범 가능성을 높게 예측하는 편향이, AI 의료 검사장비에서는 여성과 유색인종의 이상 징후를 못 잡아내는 편향이 포착됐다. 백인 남성 신체가 오랫동안 표준이 돼왔기 때문이다. 기존 데이터에 의존하는 AI의 판단은 보수적일 수밖에 없다.
▷AI를 의도적으로 악용할 경우 위험성은 더욱 커진다. 딥페이크 기술을 활용한 가짜 영상이 대표적이다. 소셜미디어의 여성 사진을 누드로 편집하는 AI가 등장했고, 오바마 대통령이 “트럼프는 머저리”라고 욕하거나, 우크라이나 젤렌스키 대통령이 러시아에 항복을 선언하는 딥페이크 영상이 돌았다. 최근에는 가방이나 열쇠 같은 물건에 붙여두면 실시간 위치를 확인해 분실 걱정을 덜어주는 애플의 에어태그가 스토킹 범죄에 활용돼 논란이다. AI를 탑재한 자율살상 로봇 시장이 커지는 것도 큰 문제다.
▷정부가 내년에 ‘디지털사회 기본법’을 제정하고 ‘디지털 권리장전’도 만든다고 한다. 최근 발표 내용을 보면 디지털 권리장전은 디지털 기술을 보편적 권리로 규정해 디지털 격차를 해소하는 데 초점이 맞춰져 있을 뿐 윤리적 활용에 대한 고민은 빠져 있다. 기술은 빠르게 변화하는데 기본 인권을 지켜낼 제도 정비의 속도는 너무나 더디다. AI가 사람을 해치는 기술이 되지 않도록 입법과 기업 활동에 지침이 되는 정부 가이드라인을 서둘러 마련해야 한다.
이진영 논설위원 ecolee@donga.com