최경진 가천대 교수는 “우리나라에는 유교적 사고방식이 많이 남아있어 철학과 이념을 굉장히 중시하고 가치 있게 여기는 반면 실천 분야는 여전히 천대받는 것 같다”며 “우리나라의 한 특성이라 볼 수 있긴 하지만 최근 그 간극이 점점 커지는 것 같아 다소 우려스럽다”고 말했다. 문호남 기자
최경진 가천대 교수는 “우리나라에는 유교적 사고방식이 많이 남아있어 철학과 이념을 굉장히 중시하고 가치 있게 여기는 반면 실천 분야는 여전히 천대받는 것 같다”며 “우리나라의 한 특성이라 볼 수 있긴 하지만 최근 그 간극이 점점 커지는 것 같아 다소 우려스럽다”고 말했다. 문호남 기자


■ 현안 인터뷰 - 인공지능 법학회장 맡은 최경진 교수

가명정보 식별 가능성 등 놓고
무조건 위험 판단땐 산업 약화
법·기술 이해 바탕 논의 필요

AI기본법이 전부 통제는 못해
사안별 특수성 따라 규제 차등

딥페이크·금융사기 같은 범죄
보다 신속·강력하게 대응해야


인터뷰 = 유회경 경제부장 yoology@munhwa.com

‘챗GPT’ 등장 이후 인공지능(AI)은 경제 산업 분야 최대 화두로 떠오른 동시에 개개인의 일상으로 빠르게 스며들고 있다. 아직 초기 단계이긴 하지만 AI는 많은 분야에서 광범위하게 활용되고 있고 앞으로 그 활용도는 눈덩이 불어나듯 증가할 것으로 보인다. 가히, AI 전성시대가 도래했다고 볼 수 있다. 하지만 우려의 목소리도 적지 않다. 러시아·우크라이나 전쟁에서 보듯이 전쟁에서 점점 많이 사용되고 있으며 범죄에서 AI의 어두운 활용 사례를 심심찮게 확인할 수 있게 됐다. ‘딥페이크 음란물’이 그 대표 사례다. AI에 대한 기대감과 비례해 AI에 대한 효율적인 규제 방안의 필요성이 커질 수밖에 없는 상황인 것이다. 최경진 가천대 법과대학 교수는 연구자로서 그 최일선에 서 있다. 그의 말대로라면 철학을 지니되 현상 그리고 현장과 끊임없이 소통하면서 적정 규제를 찾기 위한 노력을 아끼지 않고 있다. 날씨가 쌀쌀해질 무렵 가천대 연구실에서 만난 그는 다소 왜소해 보였다. 수줍은 면도 적지 않았고 특유의 온화하고 조곤조곤한 말투는 경계심을 허무는 데 충분했다. 그런 사람이 왜 그리 직함이 많을까. 아이스브레이킹 할 겸 이 지점에서 인터뷰를 시작했다.

―최근에 AI법학회 제5대 회장으로 선출됐다. 축하드린다.

“감사하다.”

―연임으로 알고 있다. 자리 욕심이 너무 많은 것 아닌가. AI법학회는 어떤 곳인가.

“하하. 그런가. 학회원들이 더 열심히 하라고 기회를 준 것 같다. AI법학회에는 우리나라 AI 분야 전문가들이 총망라돼 있는데 법학 교수 말고도 변호사, AI 기반 스타트업 창업자 포함 기업인, 정부 관계자, 실무 AI 개발자 등 구성원이 다양하다는 게 특징이라면 특징이다.”

―변호사라면 몰라도 AI 개발자가 AI법학회에 올 이유가 있을까.

“있다. 제가 주로 연구하고 있는 AI와 개인정보 분야에서 정말 중요한 주제인 가명 정보 처리 문제를 예로 들어보자. AI시대에는 개인정보의 활용도를 높여야 한다. 그런데 개인정보 침해 문제로 날것을 가져다 쓸 수는 없기 때문에 이를 식별성을 낮춘 가명 정보로 만들어 가공해서 활용해야 한다. 그런데 수용 가능한 가명 처리 수준이 사람마다 달라 논란이 발생할 수밖에 없다. 특히 식별 가능성이 굉장히 중요한 표지인데 문제는 식별 가능성을 놓고 데이터셋(정보 묶음)을 들여다보지도 않고 위험하다고 피상적으로 판단하는 경우가 많다는 점이다. 실제로 데이터셋을 보면 정보가 수천만 건이라 누구인가를 유추해내기 위해선 수많은 시간과 노력과 비용이 들어가 사실상 식별이 불가능한 경우에도 위험하다고 예단하기 일쑤다. 그렇게 규제를 강화할 경우 개인정보 활용도는 떨어질 수밖에 없다. 반대로 기술이나 서비스 쪽에 있는 사람들은 관련 법률에 정통할 필요는 없겠지만 현실적 구현을 위해 법률가와 소통을 하면서 사회적으로 용인받을 가명 정보 수준을 파악하고 이를 감각적으로 몸에 익힐 필요가 있다. 결국 법 논리와 실무 서비스와 기술에 대한 이해가 결합돼야 보다 실질적이고 합리적인 판단을 내릴 수 있다고 본다.”

―학회 활동이 역동적이지만 다소 어수선할 것 같다.

“역동적이라는 표현이 맞을 것 같다. 통상 학회의 경우 비슷한 성향의 학회원들이 모여 이상적이고 이론 중심의 이야기를 주로 나누곤 한다. 하지만 우리 학회는 다양한 성향의 학회원이 모이다 보니 논의가 훨씬 생산적이고 실제적인 것 같다. 물론 각자 사용하는 언어가 다르다 보니 처음에는 소통에 많은 어려움을 겪을 수밖에 없었다. 저는 법적 논의나 입법이 현상이나 현장을 중시해서 이뤄져야 한다고 보고 특히 AI나 개인정보 분야에서 현상이나 현장을 중시하지 않을 경우 굉장히 위험한 규제법이 나올 수밖에 없다고 본다. 어렵지만 유의미한 일이고 저는 그 소통의 역할에 일종의 사명감도 갖고 있다.”

그는 개인정보보호법학회 회장을 역임했고 개인정보전문가협회 회장으로 활동하고 있다. 사실 비교적 외부 활동이 활발한 편인데 이 역시 같은 맥락이라고 최 교수는 설명했다.

―AI의 위험성에 대해 어떻게 생각하나.

“AI가 왜 위험하다고 생각할까. 사람에게 피해를 줄 수 있다고 보기 때문이다. 사실 우리가 규제를 하거나 법을 만드는 것은 피해를 야기할 수 있는 위험성을 방지하기 위해서다. 그런데 AI는 똑똑해지면 더 위험해질까. 난 항상 그러지는 않을 것이라 본다. 극단적인 사례를 들어보자. 사실 우리나라는 북한에 대해 크게 두려워하지 않고 있다. 적어도 6·25전쟁 때와는 큰 차이가 있다. 첨단 무기를 많이 확보하고 있기 때문이다. 하지만 AI는 이런 상황을 바꿔놓을 수 있다. 북한의 재래식 무기가 낮은 수준이라 할지라도 AI를 통해 무서운 무기로 변할 수 있기 때문이다. 북한에서 자꾸 보내는 오물풍선 역시 우스워 보여도 일정 정보가 축적되고 이를 적절히 활용할 수 있다면 심각한 수준의 무기가 될 수 있다. 반면 오히려 성능이 뛰어나고 발전할수록 그것은 인간에게 생각보다 덜 위험한 것으로 남을 가능성도 있다. AI에 대한 막연한 두려움을 거두고 실질적인 위험성을 적절히 규제할 수 있는 방안을 찾아야 한다.”

―다른 위험은 없는가.

“AI는 사유 능력을 저하시킬 수 있다. AI를 자주 활용하면 사고활동을 덜할 여지가 많기 때문이다. AI시대에서 점점 중요해지는 것은 비판적인 사고방식인데 비판적 사고에 바탕을 둔 창의적 능력이 훼손될 수 있다는 말이다. 그렇다면 아예 AI를 안 쓰는 게 맞는가. 그건 바람직한 접근 방법은 아닌 것 같다. AI 리터러시(문해) 능력이 중요해지는데 여기서 AI 리터러시란 AI를 잘 쓰는 능력을 배양하는 동시에 창의적이고 비판적인 사유를 개발하는 것을 말한다. 지금까지는 전자만 강조됐는데 앞으로는 균형 잡힌 접근이 필요하다.”

―현재 만들고 있는 AI기본법은 어떤가.

“AI는 이제 보편 기술이 됐다. 점점 생활 속에서 활용이 늘고 있다는 의미다. AI기본법만 만들어지면 AI 전 분야를 효율적으로 규제할 수 있다고 생각하는 경향이 있다. 그건 아닌 것 같다. 이는 헌법을 갖고 모든 삶을 규율하겠다는 것과 다르지 않다. 이는 불가능하기도 하고 바람직하지도 않다. AI기본법을 기본으로 하되 현장 중심, 현실 중심으로 바라보면서 각 분야 AI 특수성을 고려해 규제 대상과 규제 정도를 달리하는 게 맞는 접근이라고 본다. 가령 규제가 시급한 영역이 있다. 대표적인 것이 딥페이크 음란물인데 이는 굉장히 심각한 인격적 침해가 되기 때문이다. AI를 활용한 피싱 금융사기도 위험하다. 이는 기존 전화를 활용한 금융사기보다 훨씬 더 무섭다. 신속하고 강하게 규제해야 한다. 하지만 AI 산업의 발전과 경쟁력을 고려해 자율적인 규제를 할 필요가 있는 분야도 많다. 또 글로벌 흐름과 보조를 맞출 필요도 있다.”

―우리나라는 어떻게 가야 하나.

“미국은 차기 정부에서 탈규제 쪽으로 가게 될 것이다. 미국 같은 AI 1등 국가가 규제 완화를 하는데 우리가 규제 일변도만 고집하다면 과연 얻어낼 수 있는 게 뭔가. AI가 신뢰를 잃지 않도록 관리하는 가운데 자율 규제와 강제 규제를 병행한 적정 규제를 적절히 추구해 갈 필요가 있다.”

관련기사

유회경

기사 추천

  • 추천해요 0
  • 좋아요 0
  • 감동이에요 0
  • 화나요 0
  • 슬퍼요 0