한국소식 한국의 최신 소식을 전합니다.
한국소식2023-10-25 11:31:11
0 7 0
[IT/과학] "민간 자율 검증으로 AI 신뢰성 확보…AI 창작물에 '워터마크' 도입"
내용

 

 

 입력2023.10.25. 오전 10:01

 

과기정통부, AI 최고위 전략대회 개최…AI 신뢰성 강화 방안 논의
기존 AI 한계 극복 위한 차세대 생성 AI 기술 개발에 220억 투입

[서울=뉴시스]오동현 기자 = 카카오브레인의 이미지 생성형 인공지능 서비스 '칼로 2.0'을 활용해 제작한 이미지. odong85@newsis.com *재판매 및 DB 금지[서울=뉴시스]윤현성 기자 = 정부가 인공지능(AI) 윤리·신뢰성 확보를 위해 민간이 자율적으로 AI 서비스에 대한 검·인증을 진행할 수 있도록 하고, AI 분야별 가이드라인까지 마련하기로 했다. 생성형 AI로 인한 위험성 등을 줄이기 위해 AI 창작물에 워터마크를 도입하는 방안 등도 추진한다.

과학기술정보통신부는 25일 안전한 AI 확산방안을 논의하는 '제4차 인공지능 최고위 전략대화'를 개최했다고 밝혔다. AI 최고위 전략대화는 국가 AI 경쟁력 강화를 위해 민·관이 함께 정책·투자방향, 전략적 협력방안을 논의하는 AI 대표급 협의체다. 지난 2021년 9월부터 현재까지 총 3차례 개최됐다.

이번 행사는 지난 9월 '대한민국 초거대 AI 도약' 행사에서 기업들이 AI 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련됐다. 현장에는 이종호 과기정통부 장관과 고학수 개인정보보호위원회 위원장, AI 분야 민·관 최고위 관계자 등이 참석했다. 

과기정통부는 그간 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로 'AI 윤리·신뢰성 확보 추진계획'을 발표해 향후 민·관이 함께 나아가야 할 방향에 대해 공유했다.

AI 윤리·신뢰성 확보 추진계획은 ▲민간 자율 AI 윤리·신뢰성 확보 지원 ▲세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련 ▲사회 전반 책임 있는 AI 의식 확산 등 AI 윤리·신뢰성 모범국가를 위한 내용 등으로 구성된다.

세부 추진과제를 살펴보면 먼저 '국가 AI 윤리기준'을 구체적 실천수단으로 채용해 생성형 AI 기반 서비스 등 분야별 가이드라인을 마련·확대하고, 민간 자율 신뢰성 검·인증을 11월부터 추진할 계획이다. 특히 AI 사업 중 고위험 영역 AI 개발·실증 사업을 수행하는 기업을 일부 선정해 올해 12월 시범 인증을 추진한다.

AI 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 AI 오작동 등에 따른 잠재 위험요인에 대응하기 위해 기존 AI의 한계를 극복하고 초거대 AI의 신뢰성을 확보하기 위한 기술개발도 내년부터 신규로 추진한다. 차세대 생성 AI 기술 개발에는 2027년까지 총 220억원 투입이 예정돼있다.

또한 챗GPT와 같은 초거대 AI의 확산으로 AI가 가져다 줄 혜택에 대한 기대와 함께 안전에 대한 위험성 우려가 확대되고 있다. 이같은 상황에서 AI가 생성한 결과물에 대한 워터마크 도입의 제도화를 검토하고, 고위험 AI에 대한 해설서를 마련하는 등 신뢰성 확보를 위한 제도 정립 과제도 추진할 방침이다.

이날 회의에서 민간에서는 김유철 LG AI 연구원 부문장이 'AI 윤리원칙 실행을 위한 기업의 노력'을 발표하고, 김동민 JLK 대표가 '고위험 AI 분야에 대한 신뢰성 검·인증의 필요성'에 대해 발표했다.

발표에 이후에는 AI 산업 민간자율 검·인증 추진방향, 초거대·생성형 AI 신뢰성 향상을 위한 자발적 노력, AI윤리의식 확산 및 글로벌 규범 선도 등을 주제로 토론이 진행됐다. 

이종호 장관은 "AI는 디지털 심화 시대의 핵심기술로서 AI의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다"며 "민간 자율 AI 신뢰성 검·인증 지원을 비롯한 AI 윤리 생태계 기반 조성과 적합한 규제 체계를 정립해가는 데 힘쓰고, 관계부처와 함께 AI 윤리·신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위하여 최선을 다하겠다"고 말했다.
 

윤현성 기자(hsyhs@newsis.com)

기자 프로필

스크랩 0
편집인2024-10-31
편집인2024-10-31