close
PRESS
PRESS
AI 규제, 미·영·EU 3파전…"한국,글로벌 주도권 확보 나서야" [AI전쟁 시즌2]
작성일 2023.11.13조회수 586

세계는 ‘인공지능(AI)를 누가 어떻게 얼마나 규제할까’를 논의 중이다. 겉으론 ‘안전한 AI’를 향해 한마음인 듯하지만, 물밑에선 자국 이해에 맞게 규제의 물길을 틀려는 전쟁이 치열하다. 기술을 진흥하려는 미국, ‘세계의 중재자’가 되려는 영국, ‘세계의 심판’이 되려는 EU의 치열한 경쟁이다. 한국도 국가 산업 경쟁력에 도움이 되는 쪽으로, 명확한 규제의 방향성이 필요하다는 목소리가 나온다.


◇미·영·EU ‘삼파전’

자국 빅테크 기업이 없는 EU는 누구보다 앞서 2021년부터 AI 규제 법안(AI Act)을 준비해 왔다. 지난 6월에는 챗GPT 같은 생성 AI 기술을 4단계 위험으로 나눠 규제하는 내용의 AI법 초안이 유럽 의회를 통과했다.

지난달 16일 벨기에 브뤼셀 EU 집행위원회 본부에서 중앙일보와 만난 마우리츠-얀 프린즈 AI 기술 특별고문은 “EU의 가치에 부합하는 AI는 물론, 대기업과 스타트업이 공정 경쟁하려면 AI법은 반드시 필요하다”라며 “규제가 명확해져야 (EU 회원국들의) AI 스타트업들의 경쟁력도 좋아질 것”이라고 말했다. 그는 연내 확정을 목표로 AI법의 세부 내용을 조율하는 중이다.

영국은 지난 1일 AI 안전 정상회담을 개최, G7을 포함한 세계 28개국으로부터 안전한 AI를 위해 협력하겠다는 ‘블레츨리 선언’을 끌어냈다. 특히 리시 수낵 영국 총리는 자국 내 반대에도 회담에 중국 대표 초청을 강행한 것으로 알려졌다. 진영을 넘어 ‘세계의 AI 중재자’가 되겠다는 포부다. 한편 영국은 AI, 차세대 수퍼컴퓨터, 양자컴퓨팅 연구 등에 총 15억 파운드(2조5000억원)을 투입하기로 했다. 기술까지 갖춘 심판으로, EU와 차별되겠다는 계산이다.

대다수 AI 기업을 보유한 미국은 ‘내 자식 보호’에 앞장선다. 지난달 30일 조 바이든 미국 대통령은 AI 서비스 개발과 서비스를 통제하는 내용의 행정명령에 서명했다. 골자는 기업이 AI의 안정성 시험 결과를 정부에 보고하도록 한 것인데, 특정 규모 이상의 거대 AI 모델에만 적용된다. 빅테크엔 규제 불확실성을 없애주고, 규모가 작은 AI 스타트업은 규제를 면해준 것. 행정명령에 대해 빅테크는 “AI 기술 거버넌스에서 중요한 진전”(마이크로소프트) “정부와 협력해 더 빠르고 안전한 방식으로 AI 잠재력을 극대화할 것”(구글)이라며 일제히 환영했다.

◇한국, ‘디지털 질서’에서 ‘AI 질서’도 

한국은 내년 5월 AI 정상회담의 후속 격인 ‘미니 정상회의’를 영국과 공동 주최한다. 글로벌 주도권을 확보할 기회인 만큼, 규제에도 보다 전략적인 접근이 필요하다는 지적이 나온다. 지난달 과학기술정보통신부가 발표한 ‘디지털 권리장전’은 디지털 규범 질서를 담은 선언적 내용이며 ‘AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안’은 국회에 계류중이다.

하정우 네이버클라우드 AI이노베이션 센터장은 “한국이 공공 영역에서 AI로 어떻게 안전성을 확보했는지 등 사례를 공유해 국제 사회에서 발언권을 키울 수 있다”라고 말했다. 거대언어모델(LLM)을 평가할 수 있는 기술(LLM 벤치마크)을 한국이 주도하자는 목소리도 있다. 정부의 ‘LLM 신뢰성 벤치마크 데이터’ 사업에 참여 중인 AI 기업 셀렉트스타의 황민영 부대표는 “LLM의 윤리·안전성 평가는 아직 국제 표준이 없어 한국이 선도할 수 있다"라고 말했다. 최재식 KAIST 김재철AI대학원 교수는 “사람의 생명과 재산에 큰 영향을 미치는 국방, 의료, 제조 기술 AI 등은 철저한 국가 검증이 필요한 산업이 될 것”이라고 말했다.

◇AI 연구계 ‘기반 기술 규제 아닌, 활용에 규제를’ 
AI 기술업계는 각국 정부의 규제 경쟁에 자칫 ‘일괄 규제’로 흐를까 우려한다. 오픈AI의 수석 정책 자문을 맡았던 질리언 해드필드 토론토대 법학부 교수는 중앙일보에 “모든 AI를 규제하는 건 경제 전체를 규제하겠다는 것과 같다”라고 말했다. 기술 자체를 규제하는 게 아니라, 기술이 악의적으로 쓰이지 않도록 활용을 규제해야 한다는 것이다.