입력2024.03.30. 오전 11:30
원본보기 지난달 26일 촬영된 오픈AI와 챗GPT 로고. AFP연합뉴스
오픈AI는 “이 도구를 어린이 교육을 위한 음성 해설 콘텐츠나 실시간 개인 맞춤형 응답 생성 기능 등 다양한 분야에서 활용할 수 있다”며 “또 언어 기능에 영향을 주는 질환을 앓는 환자들을 위한 치료 애플리케이션이나 장애인을 위한 소통 기기에 지원된 사례도 있다”고 소개했다. 다만 “인조 음성 기능의 오용 가능성 때문에 더 광범위한 출시에 대해서는 조심스럽게 접근하고 있다”며 “현재로서는 이 기술을 미리 공개하되 널리 출시하지는 않기로 했다”고 전했다. 사람의 목소리를 닮은 음성을 생성하는 것은 심각한 위험을 야기하며, 선거가 있는 해에는 특히 더 그렇다는 것을 인지하고 있다는 게 회사 측 설명이다. 오픈AI는 “현재 보이스 엔진을 테스트 중인 파트너들은 당사자의 동의나 법적 권리 없이 개인이나 단체를 사칭하는 것을 금지하는 사용 정책에 동의했다”며 “보이스 엔진에서 생성된 모든 음성의 출처를 추적하기 위한 워터마킹 등 일련의 안전 조치를 구현했다”고 전했다. 블룸버그통신은 “오픈AI가 사람의 목소리를 흉내 낼 수 있는 기능을 공개하며 AI 기술의 새로운 지평을 열었다”면서도 “이는 딥페이크(딥러닝과 AI로 만든 영상, 이미지 등의 가짜 콘텐츠) 위험에 대한 불안감도 일으키고 있다”고 지적했다. 지난 1월 미국에서는 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 조 바이든 미국 대통령을 사칭한 가짜 전화가 주민들에게 걸려 와 투표 거부를 독려하는 사건이 벌어진 바 있다. 장은현 기자(eh@kmib.co.kr) |