보도자료
 


제목 [아이포럼 2023] "AI와 윤리간 균형점 찾아야…민관 참여 다자간 논의 필요" 등록일 23-12-19 12:07
글쓴이 관리자 조회 53
   https://www.inews24.com/view/1662420 [23]

| 베리티 하딩 英 케임브리지대 AI·지정학 프로젝트 디렉터 기조강연
"AI, 큰 혜택 있지만 오용 가능성·의도치 않은 결과 초래 가능성" 경고

[아이뉴스24 김종성 기자] "인공지능(AI)은 생산성을 높여줄 수 있는 잠재력이 아주 높습니다. 윤리적 원칙에 따라 사업을 수행하고, 안전하고 모두에게 이로운 방식으로 AI를 사용해야 합니다."

 6일 서울 용산구 드래곤시티 호텔 3층 한라홀에서 열린 '아이포럼 2023' 행사에서 베리티 하딩(Verity Harding) 영국 케임브리지대학교 베넷 공공정책연구소 디렉터가 기조강연을 하고 있다. [사진=곽영래 기자]
6일 서울 용산구 드래곤시티 호텔 3층 한라홀에서 열린 '아이포럼 2023' 행사에서 베리티 하딩(Verity Harding) 영국 케임브리지대학교 베넷 공공정책연구소 디렉터가 기조강연을 하고 있다. [사진=곽영래 기자]

베리티 하딩(Verity Harding) 영국 케임브리지대학교 베넷공공정책연구소 AI및 지정학 프로젝트 디렉터는 6일 서울 용산구 드래곤시티호텔 한라홀에서 열린 '아이포럼 2023'에서 '초거대 AI가 가져올 미래의 변화'라는 주제로 기조강연을 하며 이같이 말했다.


하딩은 딥마인드 최초의 글로벌공공정책 대표를 역임했다. 공공과 민간 부문 모두에서 풍부한 경험을 갖춰 AI와 공공정책의 세계적인 권위자로 평가받는 인물이다. 'TIME 100'의 가장 영향력 있는 AI인물 중 한 명으로 선정되기도 했다.


하딩은 이날 강연에서 기술, 윤리, AI, 국제협력 등의 주제가 융합되면서 나타나고 있는 각종 트렌드를 소개했다. 특히 지난 2016년 알파고와 이세돌이 벌인 '세기의 대결'을 AI 역사에 한 획을 그은 여러 사건 중 하나로 꼽았다.


하딩은 "딥마인드가 알파고 프로그램을 선보이면서 한국에서 바둑을 두는 이벤트를 개최하며 알고리즘이 사람과 대등한 수준으로 발전한 것을 모두가 지켜봤다"며 "그 시기가 마침 AI 산업에서 혁신이 꽃을 피우던 초입이었고, 그때부터 7년여의 시간이 지난 지금 소위 생성형 AI가 세상에 모습을 드러냈다"고 말했다.


생성형 AI는 새로운 것을 창조하는 AI다. 과거 AI가 보통 데이터 내에 있는 패턴을 분석하는 데 주로 쓰였다면, 이제 AI는 새로운 글, 사진, 영상과 같이 무언가를 새롭게 창조하는 데까지 이르렀다.


이러한 AI의 발전으로 인류와 사회에 미칠 지대한 영향에 대한 우려도 나온다. 기술적인 능력에 더해 이제는 AI가 활용하는 데이터의 투명성, 책임성, 보안, 편향성 문제 등 정치적, 윤리적인 문제의 중요성이 부각되고 있다.


하딩은 "AI의 발전이 사회에 미칠 지대한 영향에 대한 우려가 나타나며, 딥마인드 재직 당시 기업 수준에서 AI의 사회적 함의에 대한 논의를 올바른 방향으로 이끌어가려는 노력을 했다"며 "제가 AI분야에 대한 관심을 가지고 이 분야에서 일하게 된 이유"라고 설명했다. 이어 "딥마인드는 AI를 바람직한 방향으로 인류가 이끌고 가야할 새로운 기술이라며 메시지를 전달하기 위해 노력했다"며 "그 일환으로 회사 내에 윤리 사회 전담 부서를 설립해 AI가 사회에 미칠 잠재적인 영향을 연구하고, 관련 연구를 수행하면서 이러한 잠재적 리스크를 관리하는데 더 많은 사람들이 참여하도록 독려하고, 동시에 AI가 가져다줄 수 있는 혜택에 집중하도록 유도했다"고 말했다.


그는 "이제는 다양한 기업들이 AI 개발시 윤리적 사안을 고려하는 것이 하나의 트렌드로 자리잡았다"며 "AI 사업을 진행할 때 따라야 하는 일련의 AI 원칙을 세워 이를 준수하는 등 기업의 AI 개발 방향이 매우 긍정적인 방향으로 나아가고 있다"고 소개했다.


정부와 기업 모두 AI 윤리 원칙을 최적의 모범 사례로 받아들이고 있다. AI 관련 정치적 활동이 점차 늘어나고 있는 것이다. 구글이나 마이크로소프트(MS)와 같은 기업은 공정성, 투명성, 책임성을 우선시하는 AI 원칙을 채택했다. 경제협력개발기구(OECD), 주요 7개국(G7), 유럽연합(EU) 등 등 국제기구에서도 AI 감독과 관련된 여러 원칙을 제시하고 있다.


G7 국가는 AI 글로벌 파트너십(GPAI) 협의체를 구성해 AI 감독과 관련한 국제 협력을 위한 바탕을 마련했다. 올해는 일본이 주최한 G7에서 생성형 AI에 관한 히로시마 AI 프로세스가 채택됐다. EU는 AI 법안을 통과시키며 AI를 여러 종류의 리스크로 분류해 수용 불가한 리스크에 AI 활용이 무엇인지 제시하는 등 규제의 첫 스타트를 끊었다.


하딩은 "예를 들어, 사람들이 어디로 가는지 추적하는 실시간 얼굴 인식 기술 등이 수용 불가한 활용 사례로 지적됐다"며 "AI 기술을 고위험과 저위험 카테고리로 나누면서 AI가 하나의 기술이 아님을 보여주었는데, 이 부분이 핵심이라고 생각한다"고 강조했다. 그는 "AI라는 것은 다양한 활동과 다양한 기술을 아우르는 상위 개념"이라며 "어떤 기술을 사용하는가에 따라 수반되는 리스크의 수준이 매우 다르기 때문에 서로 다른 방식으로 규제를 하고 관리될 필요가 있다"고 주장했다.


최근에는 미국 조 바이든 대통령이 AI에 관한 행정 명령을 공표하면서 기업들이 AI 관련 모델을 안전한 방식으로 만들 것을 주문했다. 영국은 AI의 미래를 그려나가는 과정에서 기업과 정부간 협력, 그리고 국제 협력을 촉진하기 위해 최초의 AI 안전 정상회담을 조직했다.


하딩은 "향후 10년간 AI의 복잡성과 불확실성으로 인해 나타날 문제들을 해결하기 위해서는 국제협력이 필수적"이라며 "한국 입장에서도 생성형 AI 등 여러 AI가 빠르게 발전하는 지금, 혁신과 인권 보호간 균형을 맞추기 위한 세심한 노력은 물론 국제 협력 과정에도 지속적으로 참여하고 투자해 미래 담론에 한국의 목소리를 담아내야 한다"고 조언했다.


그는 "AI가 큰 혜택을 가져다줄 수도 있지만, 오용될 가능성이나 의도치 않은 결과를 낳을 가능성도 있다"고 경고한다. 이 때문에 정부와 기업, 국민이 모두 참여하는 다자간 논의를 통해 AI와 윤리 간 균형점을 찾아내고, AI를 최선의 방식으로 활용할 수 있는 방안을 찾아야 한다고 역설했다. 이어 "AI는 생산성을 높여줄 수 있는 잠재력이 아주 높다"며 "윤리적 원칙에 따라 사업을 수행하고, 안전하고 모두에게 이로운 방식으로 AI를 사용해야 한다"고 힘주어 말했다.


/김종성 기자(stare@inews24.com)