박성준 한림대 정보과학대학 객원교수

챗GPT라는 인공지능(AI) 서비스의 출현은 다양한 분야에서 업무 효율성을 높이고, 일부 계층에 집중하던 중요한 정보들을 누구나 쉽게 이용할 수 있도록 하는 등 인간의 삶에 많은 긍정적인 변화를 가져왔다. 이런 와중에, 시장에는 자동차·휴대전화·TV·청소기 등 AI 기술이 적용된 제품들이 쏟아져 나오고, 챗GPT 출현 이후 생성형 AI 관련 기사가 주요 일간지에서 10배 이상 늘었다고 한다.

그러나 AI 기술은 완전하지 않다. 그래서 많은 전문가가 AI의 여러 위험을 경고하며 우려한다. AI 알고리즘 자체에 결함이 있을 경우 잘못된 결과를 초래할 위험성이 있으며, 악의적인 세력에 의해 왜곡된 자료들이 입력된다면 정보 편향 등 의도와 다른 결과를 보여주게 된다.

러시아의 선전기구들이 서방의 AI 모델들을 오염시키기 위해 2024년에만 360만 건의 왜곡된 기사를 퍼뜨렸고, 2023년에는 세계적인 AI 기업인 오픈AI의 내부 시스템이 해킹당했으며, 지난해 10월에는 테슬라 자율주행 차량의 AI가 오작동해 보행자가 사망하는 사고가 발생하기도 했다. 지난 1월에 출시된 딥시크는 중국으로의 과도한 정보 유출과 우리 민족의 역사와 문화를 중국에 유리하게 왜곡 답변해 큰 이슈가 됐으며, 구글은 자사(自社) 생성형AI(제미나이)를 해킹에 악용한 북한·중국·이란·러시아 관련 계정을 삭제하고 공개한 바 있다.

이런 현실을 직시할 때 AI가 악용돼 사회적 신뢰에 금이 간다면, 국가안보와 사회 안정성에는 치명상을 입을 게 명약관화(明若觀火)하다. 그런 만큼 기술 개발 못지않게 AI의 위험성을 극복하는 일도 중요하다. 이는 우리에게 큰 도전 과제이지만, 시행착오 없이 지름길을 찾을 수 있다면 오히려 선진국을 앞서갈 수 있는 절호의 기회가 될 수 있다. 그렇다면 무엇을 해야 할까?

먼저, AI 개발 초기 단계부터 윤리적 기준을 설정하고, 공정성과 투명성을 보장하는 알고리즘을 설계되도록 법과 제도를 정비해야 한다. 위험 수준에 따라 AI 시스템을 분류하고 엄격한 규제를 적용한 유럽연합(EU)의 ‘인공지능법’을 참조해 AI 기술의 책임성과 안전성을 강화하는 방안을 조속히 마련해야 한다.

둘째, AI가 인간을 대체하는 게 아니라, 보완하도록 역할을 명확히 하고, AI 역할 평가 방법론을 개발하며, 공신력 담보를 위한 공인 제도를 마련해야 한다. 무엇보다 AI가 의도치 않은 결과를 도출할 경우, 인간이 적정 시점에 개입할 수 있도록 통제 장치를 확보하는 게 중요하다.

셋째, AI 시스템에 대한 사이버 공격과 데이터 유출을 방지하기 위한 기술적 보안 대책을 강화하고, AI 개발자 및 사용자 모두를 대상으로 보안의 중요성을 인식하도록 수준별 교육 프로그램을 개발해야 한다.

넷째, 정부는 산·학·연과 협력해 가장 적합한 AI 도구들이 개발될 수 있도록 인프라 투자를 확대하면서, 종합적인 통찰력과 리더십을 발휘할 수 있도록 AI 거버넌스를 구축해야 한다.

최근, AI 관련 안보 위협에 대한 국가 차원의 대응책을 마련하기 위해 국가안보실을 중심으로 한 ‘국가 AI 안보 협의회’ 출범과 함께 국가정보원이 ‘공공분야 AI 도입 실태’를 전면 조사한다는 소식을 접했다. 안팎으로 어려운 상황에서도 AI가 가져올 위험을 직시하고 대책 마련에 착수했다는 데 안도한다. 아울러 더 나은 세상에서 AI와 공존할 수 있도록 속도감 있게 성과를 내주길 기대하며 국민의 한 사람으로 응원한다.

박성준 한림대 정보과학대학 객원교수
박성준 한림대 정보과학대학 객원교수

기사 추천

  • 추천해요 0
  • 좋아요 0
  • 감동이에요 0
  • 화나요 0
  • 슬퍼요 0