LG AI연구원이 지난 5일(현지시간)부터 이틀간 슬로베니아에서 열리는 ‘유네스코 AI 윤리 글로벌 포럼(Global Forum on the Ethics of AI)’에 국내 기업 중 유일하게 참가했다.
2회째를 맞은 ‘유네스코 AI 윤리 글로벌 포럼’은 첫 국제 표준인 ‘AI 윤리 권고’의 이행 방안을 논의하기 위한 자리로, 올해는 ‘변화하는 AI 거버넌스의 지형’을 주제로 진행했다.
이번 포럼에는 유네스코 194개 회원국의 과학기술 담당 장관들과 유럽의회 사무총장, 앨런 튜링 연구소 윤리국장, 세계경제포럼 AI국장 등이 참석했다.
LG AI연구원 김유철 전략부문장은 포럼에서 연구·개발부터 활용 및 폐기에 이르기까지 AI 시스템의 생애주기별 LG만의 위험 관리 체계 구축 경험을 공유하고, 글로벌 빅테크를 비롯해 유네스코 회원국 및 국제기구 인사들과 AI 윤리 및 거버넌스 분야에서 긴밀한 협력 관계 구축을 위한 논의를 진행했다.
LG AI연구원은 지난해 11월 국내 기업으로는 처음으로 유네스코와 AI 윤리 실행 및 확산을 위해 손을 잡으며, 국제사회 AI 윤리 규범 합의 과정에서 주도적인 역할 수행에 대한 기대감을 높였다.
LG AI연구원은 상반기 중 유네스코와 함께 ‘전문가를 위한 AI 윤리 교육 프로그램’ 개발 추진하는 등 향후 국제 AI 윤리 활동을 함께하며 글로벌 AI 윤리 리더십을 강화해 나간다는 계획이다.
LG AI연구원은 이번 포럼에서 민간 부문의 AI 윤리 기구인 ‘유네스코 비즈니스 카운실(Business Council)’에도 가입했다.
비즈니스 카운실은 공동의장사인 마이크로소프트(Microsoft)와 텔레포니카(Telefonica)를 비롯해 세일스포스(Salesforce), 세계이동통신사업자협회(GSMA) 등 글로벌 기업 중심으로 유네스코의 AI 윤리 권고 이행을 촉진하며, AI 윤리영향평가 도구를 개발하고 운영 우수 사례를 확산하는 플랫폼 역할을 한다.
오드레 아줄레 유네스코 사무총장은 포럼 개막 행사에서 비즈니스 카운실 및 포럼 참여 기업과 함께 윤리적이고 책임감 있는 AI를 만들기 위한 민간 부문의 약속을 담은 ‘AI 윤리 성명서’를 발표하기도 했다.
LG AI연구원은 국제사회에 연구원의 AI 윤리 실천 선도 사례를 적극적으로 알리는 한편, 국내 AI 업계의 목소리를 전달하고 더 나아가 주도적으로 참여할 수 있도록 독려하는 구심점 역할을 하겠다는 계획이다.
이와 관련 LG AI연구원은 최근 ‘LG AI 윤리원칙’의 이행 성과를 담은 ‘AI 윤리 책무성 보고서’를 발간했다.
이번 보고서는 국내 및 글로벌 AI 윤리원칙 및 규범과의 정합성을 맞추기 위해 유네스코 회원국이 만장일치로 채택한 첫 국제표준인 ‘AI 윤리 권고(2021)’와 정부가 발표한 ‘AI 윤리기준(2020)’, ‘디지털 권리장전(2023)’의 내용을 반영해 작성했다.
LG AI연구원은 매년 보고서를 발간해 거버넌스·연구·참여 3가지 실천 전략을 중심으로 ‘LG AI 윤리원칙’ 이행 현황을 다양한 이해관계자들에게 투명하게 공개할 계획이다.
앞서 LG는 지난 2022년 ▲인간존중 ▲공정성 ▲안전성 ▲책임성 ▲투명성 등 AI를 개발하고 활용하는 LG의 모든 구성원이 지켜야 할 올바른 행동과 가치 판단의 기준이 되는 ‘LG AI 윤리원칙’을 발표한 바 있다.
LG의 AI 윤리원칙은 AI가 고객 즉, 인류에 긍정적 가치를 제공할 수 있어야 한다는 것을 강조하고 있다는 점에서 특히 유네스코에서 중시하는 ‘인권’과 맞닿아 있다.
LG AI연구원은 특히, AI 윤리 실천의 뿌리가 되는 거버넌스 고도화에 힘을 쏟았다.
LG는 AI 연구 허브인 ‘LG AI연구원’ 내에 기술, 법학, 정책 등 다양한 분야의 내·외부 전문가들이 참여하는 ‘AI 윤리위원회’를 비롯해 실질적인 AI 윤리 실행을 담당하는 ‘AI 윤리사무국’, AI 알고리즘과 모델의 편견이나 오류, 시스템의 취약점을 찾아내는 ‘레드팀’, 임직원들의 자발적인 AI 윤리 실천 조직인 ‘AI 윤리 연구/활동 그룹’ 등을 운영하고 있다.
LG AI연구원을 중심으로 LG 주요 계열사는 AI 윤리 담당자들이 분기별로 모여 AI 윤리 이슈와 현안을 공유하고 AI 세부 분야별 윤리 가이드라인을 개발해 전파하는 ‘AI 윤리 워킹그룹’도 운영하고 있다.
LG AI연구원은 AI 연구개발 전 과정에서 발생할 수 있는 잠재적 위험을 사전에 파악하고 해결하기 위해 ‘AI 위험 관리 프로세스’를 만들어 관리하고 있다.
LG AI연구원은 학습 데이터 내의 개인정보를 모두 익명 처리해 민감 정보가 학습에 활용되지 않게 하고 있으며, 욕설이나 혐오 표현 등을 자동으로 감지하고 걸러내는 기술도 개발했다.
LG AI연구원은 AI 윤리 실천을 위한 기술 연구와 인식 증진 활동도 함께 전개하고 있다.
기술 영역에서는 사실이 아닌 말을 그럴듯하게 만들어 내는 환각(Hallucination)이라는 생성 AI 언어 모델의 취약점을 개선하고 신뢰할 수 있는 답변을 제공하는 AI를 만들기 위해 근거에 기반한 답변을 하는 AI 기술을 개발했다.
또한, 윤리적인 답변을 제공하기 위해 단계별 검증 시스템을 설계하고, 개인 정보와 같은 민감한 정보를 선별적으로 삭제할 수 있는 기술도 개발해 언어 모델의 안전성을 높였다.
이미지와 텍스트 양방향 생성이 가능한 멀티모달(Multimodal) 모델은 저작권 문제없는 이미지 데이터를 학습에 활용하고, 사회적 편향을 측정하는 평가 지표를 활용해 모델의 편향성을 계속해서 완화해가고 있다.
LG는 이 밖에도 건강과 보건, 에너지, 환경 분야의 난제 해결에 AI 기술을 적용하는 연구를 통해 지구와 인류의 지속가능성을 높이는데 기여하고 있다.
LG 관계자는 “AI 기술 혁신은 인류에게 전례 없는 기회로 다가오고 있지만, 부작용과 위험성 해결이 주요 과제가 되고 있다”며 “국제사회가 AI 윤리 기준, 국제 규범과 같은 안전 장치 마련에 공감대를 강화하고 있는 가운데 LG도 윤리적이고 책임감 있는 AI를 만들기 위한 집단지성 발현에 역할을 다하고자 한다”고 강조했다.