close
PRESS
“AI가 데이터 출처 설명하고 저작권 대가 주는 날 올 것”
작성일 2023.10.3조회수 1,952

“AI가 데이터 출처 설명하고 저작권 대가 주는 날 올 것”

[AI 파워피플]‘설명가능 인공지능’ 선구자 최재식 카이스트 교수


처음엔 그를 다들 ‘사기꾼’이라고 했다. “설명 가능한 인공지능 개념을 처음 이야기한 2016년에는 다들 사기꾼 취급을 하더라고요.” 최재식(45) 한국과학기술원(카이스트) 김재철에이아이(AI)대학원 교수가 말한 당시는, 이세돌 9단을 이긴 알파고의 능력이 그저 ‘마술’같아 보이던 때다. 인공지능의 의사결정에 영향을 준 요인을 사람이 이해할 수 있도록 하나하나 밝혀 ‘설명 가능한’ 상태를 만들자는 그의 제안에, 이 분야 석학들조차 불가능하다고 했다.

그로부터 7년. 오지 않을 것 같던 미래에 그가 우뚝 서 있다. 6년째 카이스트 설명 가능한 인공지능(eXplainable AI, XAI)연구센터를 이끌고 있는 최 교수는 이 분야 최고의 전문가로 꼽힌다. 지난해 말, 생성형 인공지능 ‘챗지피티(ChatGPT)’ 열풍이 불면서 모두가 ‘이상한 결과값(환각)’을 목격하게 됐고, 의문과 불안이 커져갔다. 어떤 데이터를 학습했고, 왜 이런 답을 냈는지, ‘설명 가능한 인공지능’에 대한 갈증이 커졌다.

오순영 케이비(KB)금융지주 금융에이아이(AI)센터장이 다음 ‘인공지능 파워피플’ 인터뷰 후보로 추천한 최재식 교수를 지난 19일 경기도 성남시 카이스트 성남연구센터에서 만났다. ‘인간을 이롭게 하는 인공지능’이라는 뜻의 ‘인이지’란 기업도 이끌고 있는 그의 책상 옆에는 ‘참을 인’자가 써있는 종이가 붙어있었다. 연구와 경영을 동시에 해내는 그를 보며 직원들은 “언제 쉬는지 모르겠다”(인이지 직원 신혜진씨)고 했다.

‘교수이자 업자’로서 그는 “설명이 불가능한 인공지능은 불안해서 인간이 멀리하게 될 것”이며 “인공지능 시장이 성숙해 거대언어모델이 돈을 번다면, 출처로 쓰인 데이터 저작권자들에게 대가를 지불하게 될 것”이라고 전망했다.

■ ‘사기꾼’ 취급에도 믿은 ‘설명 가능성’

―설명 가능한 인공지능이 뭔가?

“자율주행 차를 예로 들자. 저 앞쪽 길 위에 소포 상자와 아이들이 보인다면? 자율주행 시스템이 그 상자를 제 때 발견했는지 알 수 없다면 불안해서 더이상 운전을 맡길 수 없다. 제동거리 안에서 모니터에 상자가 초록색으로 표시되며 인공지능이 보았다는 것을 내게 확인시켜주는 기술이 있어야 비로소 안심한다. 이렇듯 인공지능의 의사 결정에 영향을 미치는 요소를 인간이 이해할 수 있는 방식으로 보여줘 ‘설명 가능한’ 상태로 만들자는 것이 설명 가능한 인공지능이다.

―설명 가능하면 안심할 수 있다?

“사람이 실수하듯 인공지능도 실수할 수 있다. 인공지능이 100% 완벽하다는 생각은 틀린 생각이다. 인공지능이 어떤 의사결정을 왜 했는지 계속 설명해내다 보면, 언제 어떤 부분에서 인공지능을 믿고 일을 맡겨도 되는지, 언제 인간이 나서서 스스로 해야 하는지를 나눠서 결정할 수 있게 된다. 설명 가능한 인공지능 기술은 인공지능을 신뢰할 수 있게 만드는 데 기여한다.”

―실제 적용도 되고 있나?

“설명 가능한 인공지능은 학습 데이터의 문제, 저작권 문제, 윤리 문제와도 이어지고, 실제 산업 현장에 적용하는 기술이기도 하다. 자율주행, 스마트 공장 등 여러 산업 분야에 적용되고 있다. 포스코 포항제철소의 경우를 보면, 자동화 공정에 설명 가능한 인공지능 기술을 접목해, 기계의 온도가 올라갈 것을 예측해 센서가 반응하는 것을 보여주니, 작업자들이 이해하고 받아들였다. 반면 아무 설명 없이 센서가 갑자기 작동한다 싶으면 작업자들이 수동 조업을 하게 된다. 앞으로 다양한 산업 분야에서 인공지능 기술에 대한 신뢰성과 투명성을 담보하기 위해 함께 제공되어야 하는 것이 설명 가능 인공지능 기술이다.”

―윤리나 철학적인 개념인 줄만 알았는데, 기술 이야기다.

“설명 가능한 인공지능 사용자는 크게 셋이다. 인공지능 개발자와 사용자, 그리고 법률을 만들고 영향을 평가하는 규제당국이다. 학습 데이터 사용이나 저작권·개인정보·윤리 문제에 있어, 인공지능을 규제하고 검증하는 법률의 영역이 있고, 기술적으로 인공지능의 문제를 해결하고 설명가능한 형태로 만들어내는 개발자 영역이 있다. 인공지능의 학습과 추론에 영향을 준 요소가 무엇인지 정확하게 파악해 설명해내고, 문제가 있는 경우 인공지능망을 하나하나 눌러봐 어느 부분이 잘못됐는지 알아내 고치는 것까지가 설명 가능한 인공지능의 영역이다.”

―최근 초거대 인공지능 모델들은 학습 데이터 출처를 밝히지 않고 있는데, 학습용으로 쓰인 콘텐츠의 저작권 문제를 해결할 수 있을까?

“챗지피티와 같은 대형언어모델(Large Language Model·거대한 데이터를 학습해 인간의 언어를 이해하고 생성하도록 훈련된 인공지능)의 경우에는 저작권이나 학습 데이터의 문제가 크다. 지금 관련 연구를 하고 있는데, 제일 어려운 것이 어디까지 인공지능 결과값의 원천 소스를 밝히느냐다. 한 단어 혹은 한 단락 혹은 한 문장 가운데 어떤 것을 기준으로 해야 할까? 또 문제는 현재의 학습 데이터에는 해당 데이터가 어디에서 왔는지, 태그(꼬리표)도 잘 되어있지 않다는 것이다. 한겨레의 누구 기자가 쓴 글이라고 하는 정보가 붙어 있어야 나중에 출처를 파악해 대가를 지불할 수 있을텐데, 지금은 이 태그 없이 그냥 내용만 학습한 상태다. 여기부터 바뀌어야 한다. 텍스트에 각자의 워터마크를 붙이면 어떨까 싶다.”

―뉴스가 학습용 무료 데이터로 둔갑해 언론사들의 고민도 크다. 바뀔 수 있을까?

“초거대 인공지능 모델을 통해 빅테크가 돈을 벌기 시작하면, 원천 소스의 저작권을 무시하는 태도에 대해 대중이 이상하게 바라볼 것이다. 특히 우리나라 사람들은 ‘인내천’ 사상을 기반으로 해 주체성이 높고 자신의 데이터에 관심이 많다. 가장 좋아하는 서비스 중 하나가 배달의민족에서 실시간으로 내 음식이 어디 있는가를 보는 기능이라더라. 나와 관련된 무엇을 보는 것도 좋아하지만, 당연히 나와 관련된 내 데이터가 어디에 가서 무엇을 하는데 쓰이는지에 대한 관심도 많다. 대가를 이미 다 지불해 얘기 안해도 되는 저작권을 빼고는 어느 정도 표시해주는 합의의 선이 만들어질 것이다. 인공지능 시장이 성장해가며 거대언어모델이 돈을 번다면 출처로 쓰인 데이터의 저작권자들에게 대가를 지불하게 될 것이다. 유튜브 방식으로, 많이 쓰인 소스(출처)에 대가를 더 지불하는 방식으로 가지 않을까 싶다.”

―언제 처음 설명 가능한 인공지능 연구를 시작했나?

“2016년쯤부터 이 개념을 이야기하기 시작했는데, 다들 사기꾼 취급을 하더라. 딥러닝 분야의 대가인 요슈아 벤지오 교수님까지 내게 ‘넌 뇌의 뇌세포 하나하나를 다 아냐? 어떻게 인공지능 작동원리가 하나하나 설명가능하겠냐’고 묻더라. 하지만 이제는 뇌도 어느 부분을 누르면 어떤 기능이 차단되는 지 하나하나 누르면서 확인하는 시대다. 인공지능도 하나하나 눌러가며 확인할 수 있다고 믿었다.”


■ 예측 인공지능, 내 눈에 ‘대박’

―인공지능 분야에 언제부터 끌렸나?

“1997년 대학(서울대 컴퓨터공학)에 갔을 때부터다. 그 때는 인공지능 쪽에 강좌가 개설되어 있거나 학생들이 그쪽에 관심이 있거나 하는 분위기는 아니었다. 공부 잘하는 친구들은 다 무선통신 쪽으로 갈 때였다. 나는 인공지능 분야에 관심이 가서 로봇연구단에 들어갔다가 2004년 미국으로 유학을 가 본격적으로 공부를 했다. 내가 약간 유행에 덜 휩쓸리는 편이다. 유행을 따라다니다보면 리드를 못한다.”

―현재 ‘인공지능 파워피플’ 중 동기들이 많다고 들었다.

“인공지능 분야가 이렇게 폈을 때 의지하고 물어볼 수 있는 동기와 동년배들이 많아 든든하다. 네이버클라우드의 하정우 에이아이(AI)이노베이션 센터장과 성낙호 하이퍼스케일 에이아이(Hyperscale AI) 기술총괄, 한국인이 실리콘밸리에서 창업한 스타트업 중 첫 유니콘(기업가치 1조원 이상의 비상장사)이 된 몰로코의 안익진 대표 등이 학교 동기다. 저를 추천해준 오순영 케이비(KB)금융지주 금융에이아이 센터장, 카이스트의 주재걸 교수, 신진우 교수도 동년배여서 서로 조언을 많이 해준다.”

―회사도 창업했다.

“박사 논문으로 ‘대형 확률 모델에서의 추론’을 연구하면서부터 인공지능 예측 모델을 만들어왔다. 하다 보니 산업을 고도화하고 디지털로 전환하는 과정에 적용하면 대박이겠다, 미래가 밝다 싶더라. 그런데 사람들이 안 믿어줘서 2019년에 혼자 ‘인이지’를 창업했다. 인공지능 쪽에서도 모두 거대언어모델 쪽에 몰리는데 난 예측 인공지능 쪽으로 온거다. 최근 엘지(LG)가 연 컨퍼런스에 갔다가 ‘인이지가 인공지능 기반 예측 최적화 분야에서 국내 최고의 기업’이라는 평가를 들었다.”

―인이지는 어떤 회사?

“인이지는 ‘인간을 이롭게 하는 인공지능’이라는 의미다. 세상에서 가장 정확한 인공지능 예측 서비스를 제공하는 기업 목표를 갖고 있다. 산업용 공정 최적화, 설명 가능 인공지능 솔루션 등을 개발해 국내 화학·반도체·발전소 현장에 적용하고 있다. 지금까지 55억원 규모의 프리시리즈에이(A) 투자를 유치했고, 일본 시장에서도 좋은 반응을 얻고 있다.”

―예측 인공지능에는 엉뚱한 답변이 나오는 환각(할루시네이션) 현상이 없나?

“예측 모델도 틀릴 수 있다. 거대언어모델이 틀리면 없는 사실을 이야기하는 할루시네이션 현상이 되고, 예측 모델에서는 예측이 틀리는 것이 된다. 때문에 예측 모델은 어떤 근거로 예측을 한 것인지 잘 설명해 사용자의 판단을 돕는 것이 중요하다. 내 기준으로 인공지능을 크게 나누면 ‘미션 크리티컬(고위험)’한 것과 아닌 것으로 구분된다. 일상에서 쓰는 인공지능 스피커나 챗지피티는 일단 미션 크리티컬하지 않지만, 자율주행·제조·의료·금융·언론 등은 다르다. 틀리거나 편향된 결과가 그대로 반영되면 안된다.”

―거대언어모델의 환각 현상은 어떻게 이해해야 하나?

“할루시네이션도 세가지 타입 정도로 분류할 수 있다. 우선 ‘세종대왕이 맥북 던진 사건’ 처럼 시간과 공간상 같이 있지 않은, 같이 있으면 안되는 조합을 같이 있는 것처럼 얘기하는 경우다. 다음은 중의적인 표현이 사용됐을 경우 마구 짜깁기를 하는 현상이다. ‘위나라’에 대해서 물어보면, 고대 위나라와 조조의 위나라를 섞어서 설명하는 식이다. 마지막으로 상대가 좋아하는 이야기를 하느라 틀린 소리를 하는 현상이다. 챗지피티가 ‘가스라이팅’에 취약하다는 이야기가 있는데, 실제 내용이 맞든 틀리든 사용자가 좋아하는 이야기를 계속 하는 경향이 있다.



■ ‘교수+업자’의 인공지능 시장 전망

―초거대인공지능 모델을 내놓은 빅테크들 사이에 비투비(B2B) 시장에서의 경쟁이 치열해지고 있다. 메타의 라마처럼 무료로 공개한 모델도 있어, 시장이 제대로 형성될 지 의문이 제기되기도 한다.

“초대규모 인공지능 모델을 개발한 기업 쪽에서는 메타처럼 경량으로 만들어 무료로 풀어버린 인공지능 모델이 있어 걱정될 수도 있다. 하지만 대부분 주요 고객(엔드 유저)이 쓰는 소프트웨어는 유료이고, 1등의 기술을 따라가고 싶은 곳들이 공개 소프트웨어가 되더라. 사실 빅테크가 얼마나 많은 돈을 써서 만들었는지는 고객 입장에서는 중요하지 않다. 고객은 효용으로 판단한다. 챗지피티를 내놓은 오픈에이아이의 최고경영자 샘 알트만의 말에서 영감을 얻을 수 있다. ‘챗지피티는 틀릴 수도 있다. 그런데 우리는 이것을 계속 개선할 것이다. 챗지피티를 쓰면서 싫다고 한 사람은 못봤다. 아마 생산성이 올라갈 걸?’ 초거대 인공지능 기술은 한 사람이 짧은 시간에 더 많은 일을 하는데 분명하게 기여한다. 업무 능력의 베이스라인이 올라가는 것이다. 기업이 여기에 비용을 낼 것이다. 그 때 안정성, 속도, 백업 등을 생각하면 유료 시장이 열릴 것으로 본다.”

―딥러닝(인간의 두뇌처럼 데이터를 처리하도록 컴퓨터를 가르치는 방식) 기술이 뛰어났던 구글도 잘못된 답변의 위험(리스크) 때문에 내놓지 않은 범용 거대언어모델을 오픈에이아이가 가장 먼저 내놓은 것은 능력이 있어서일까, ‘또라이’여서일까?

“두 가지다. 챗지피티가 오픈에이아이에서 나왔을 때, 구글은 기술력에서 밀렸다. 구글이 돈을 많이 벌게 되고, 개인정보·윤리 등의 이슈에 대한 필터링이 세지면서 우선 순위에서 기술이 밀린 측면이 있다. 오픈에이아이는 환각 현상 문제도 있고, 윤리적이지 않은 부분도 좀 있고, 그리고 제일 중요한 저작권 이슈가 있는데도 불구하고, 일단 쳇지피티를 내놨다. 마이크로소프트가 투자했지만, 그들은 직접 못내놨을 거다. 다른 면에서는 전문성의 문제다. 오픈에이아이 뿐 아니라 테슬라의 경우도 그런데, 장인 정신이 중요하다. 대기업에 들어가 적응하려 ㄱ을 하고싶었어도 시키는대로 ㄴ을 하는 것이 아니라, ‘내가 하고싶은 연구를 하기 위해 이곳에서 일한다’는 정신으로 일하는 것이다.”

―정부는 인공지능 법안을 통해 고위험 인공지능 규제를 준비 중이다. 예측 모델 사업을 하면 이런 규제 계획이 방해가 되지 않나?

“그렇지 않다. 법안이 있든 없든 나는 사람들에게 필요한 부분을 만드는 일을 하고 있다고 생각한다. 인공지능을 잘 만드는 것도 중요하지만, 안심하고 쓸 수 있게 하는 것도 중요하다. 우리나라 국민들이 안심하고 쓸 수 있도록 서비스 공급자들이 그런 방향으로 계속 확장해 나가야 한다고 생각한다”

―다음 인터뷰 대상을 추천해달라

“인공지능 활성화를 위해 케이티(KT) 안팎에서 균형있는 제안과 기여를 하는 배순민 케이티 에이아이투엑스엘(AI2XL) 연구소장과 세계적 기업을 일군 안익진 몰로코 대표를 추천한다.”


글 임지선 기자 sun21@hani.co.kr 사진 윤운식 선임기자 yws@hani.co.kr