
안전·신뢰·책임성·프라이버시 등
AI로 현실화될 6가지 문제점 제기
美·EU 등 ‘규제 가이드라인’ 마련
국내선 ‘로봇 개발촉진법’만 있어
지난해 인공지능(AI) 바둑프로그램 ‘알파고’와 이세돌 9단의 대국 이후 AI에 관한 관심이 크게 고조된 가운데 점차 AI의 윤리 문제가 현실화할 것으로 전망되고 있다. 이미 세계적 석학 스티븐 호킹이나 테슬라 창업자 일론 머스크 등은 AI의 위험성을 수차례 경고한 바 있다.
하지만 우리나라는 AI의 하드웨어이자 플랫폼인 ‘로봇’ 관련 법만 있을 뿐 AI 윤리에 대한 사회적 논의는 이뤄지지 않고 있다.
15일 한국정보화진흥원(NIA)은 ‘인공지능 윤리 이슈-글로벌 동향과 전망’이란 보고서를 통해 AI 윤리 이슈로 안전성과 신뢰성, 프라이버시, 오·남용, 책임성, 인간 고유성 혼란, 포비아(공포) 등 6가지를 꼽았다.
우선 안전성과 신뢰성 문제는 인간을 AI가 동물이나 적으로 간주하는 경우다. 미국 뉴욕의 흑인 프로그래머 재키 앨신은 여자친구를 AI가 고릴라로 자동분류한 사진을 트위터에 올려 공개 비판했다. 지난해 7월 미국 캘리포니아 쇼핑센터 보안 로봇이 16개월 된 유아를 공격한 일도 있었다. 자율주행차가 행인과 탑승자 보호 중 어느 쪽을 선택해야 하는지도 AI에겐 어려운 윤리 문제다.
AI 비서는 생활을 편리하게 해 주는 보조자이지만, 감시자가 되기도 한다. 실제 미국 아칸소 주 경찰은 2015년 11월 발생한 살인 사건 용의자의 아마존 음성 비서 ‘알렉사’의 녹음 자료를 확보하려 했다.
마이크로소프트 채팅봇 ‘테이’가 백인우월주의자들에 의해 대량 학살을 옹호하는 잘못된 학습을 해 작동 중지됐고(오·남용), 의사 AI가 잘못한 결정을 누가 책임질지, AI에 대해 법인격을 부여할지(책임성)도 논란거리다.
AI를 활용한 대리 인간, 성관계 로봇 등 때문에 생기는 인간관계 혼란 문제(인간 고유성 혼란)나 AI가 일자리를 빼앗는 것뿐 아니라 인간의 삶을 제어할 것이란 포비아도 해결 과제로 부상했다.
해외 주요국은 대비를 서두르고 있다. 미국은 백악관에서 지난해 10월 AI 미래에 대한 준비 보고서를 내놨고, EU는 로봇 규제 가이드라인을 마련한 상태다. 하지만 우리나라는 ‘지능형 로봇 개발 및 보급촉진법’이 유일하다. 이마저도 AI 산업 진흥에 초점을 맞추고 있어 윤리 규제 논의는 부족한 상황이다.
NIA 관계자는 “AI 윤리 문제에 대한 범국가 차원의 협력 기구를 마련하고, AI와 로봇의 도덕적 설계와 윤리적 프로그래밍 원칙에 대한 연구를 서둘러야 한다”고 지적했다.
장석범 기자 bum@munhwa.com
주요뉴스
이슈NOW
기사 추천
- 추천해요 0
- 좋아요 0
- 감동이에요 0
- 화나요 0
- 슬퍼요 0