You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
FEB 9 2024• KOREA TOWN NEWS<br />
COVER STORY<br />
| 19<br />
지난 달 뉴햄프셔 프라이머리에서 논란이 된 조바이든 대통령의<br />
가짜 전화 사건<br />
이 목소리는 바이든 대통령의 것과 같았고, 이 말은<br />
바이든 대통령이 즐겨 쓰는 표현이었다. 이 목소리는<br />
“공화당은 무소속 유권자와 민주당 유권자가 예비 경<br />
선에 참여하도록 압력을 가해 왔다. 정말 말도 안 되<br />
는 소리”라고 하면서 “당신의 표를 11월 선거를 위해<br />
아껴두는 게 중요하다. 이번 예비 경선에 투표하지 말<br />
라”고 전했다.<br />
한편 백악관은 즉시 해당 로보콜이 생성형 AI가 만<br />
든 딥페이크(deepfake)라고 해명했다.<br />
그간 ‘AI 기술이 민주주의를 위협할 것’이란 우려<br />
가 전문가들을 사이에서 제기됐지만, 선거 기간 특<br />
정 후보의 득표를 방해하려는 목적으로 AI 로보콜<br />
이 광범위하게 유포된 건 미 선거 역사상 이번이 처<br />
음이었다.<br />
올해 미 대선이 직면한 딥페이크 문제는 다방면에<br />
걸쳐 있다.<br />
AI 기술의 급격한 발달을 기반으로 한 가짜 콘텐츠<br />
들은 매우 쉽게 제작될뿐더러 여론을 조작하고 불화<br />
를 조장하는 데 악용된다. 그리고 이는 대선 후보 및<br />
정치 기관에 대한 신뢰를 약화한다.<br />
전문가들은 정부, 기업, 사회 전체가 디지털 문<br />
해력과 인식을 증진하는 한편 AI의 악용에 대응하<br />
기 위한 공동의 노력을 기울여야 한다고 입을 모으<br />
고 있다.<br />
이들은 언론과 정당에 대한 불신이 높은 나라일수<br />
록 딥페이크가 치명적 영향을 줄 수 있다고 말한다.<br />
딥페이크로 조작된 ‘그럴듯한’ 가짜정보를 선택적<br />
으로 받아들여 극단화된 의견에 갇힐 경우, 정치 양<br />
극화는 더 악화할 수 있다는 것이다.<br />
또한 패배 진영은 불리한 이미지나 영상이 조작되<br />
었다고 주장하며 선거 결과에 불복하고 폭력 사태를<br />
일으킬 수도 있다.<br />
◈ FCC, AI로 유명인 목소리 위조한 전화 마케팅<br />
불법화<br />
세상에 없는 인물과 이미지를 만들어 내는 딥페이<br />
크가 더 방대한 정보가 투입되는 딥러닝을 통해 더 정<br />
교해지고 실존에 가까워지고 있다.<br />
사람이 만든 진짜 정보와 AI가 생성한 가짜 정보를<br />
구별할 수 없는 상황 속에 슈퍼 선거의 해를 맞아 그<br />
영향은 더욱 클 것으로 예상된다.<br />
이에 미 정부는 전화 마케팅에 인공지능(AI)을 활<br />
용한 가짜 목소리인 ‘오디오 딥페이크’를 사용하는 것<br />
을 금지했다.<br />
지난 8일(목) 연방통신위원회(FCC)는 ‘전화 마케팅<br />
에 대한 소비자보호법’(TCPA)을 근거로 이 같은 결<br />
정을 내렸다.<br />
FCC는 전화에 AI 기술로 만든 가짜 목소리를 사용<br />
하기 위해선 먼저 상대방의 동의를 받아야 한다고 규<br />
정했다.<br />
불특정 다수에게 전화를 건 뒤 유명 인사가 직접 녹<br />
음한 것처럼 상대방을 오도해 상품을 판매하거나, 광<br />
고를 하는 것이 불가능해진 셈이다.<br />
FCC는 금지 규정을 지키지 않은 업체에 대해선 벌<br />
금을 부과하고, 주 검찰에도 단속권을 부여하기로 했<br />
다. 이번 규정은 즉시 발효된다.<br />
FCC의 결정은 지난달 뉴햄프셔 프라이머리(예비선<br />
거)에서 조 바이든 대통령의 가짜 목소리를 활용한 전<br />
화가 기승을 부린 사건이 계기가 됐다.<br />
당시 민주당은 바이든 대통령에게 피해를 주려는<br />
목적에서 꾸민 정치공작이라고 반발했다. 프라이머리<br />
개최를 방해하려는 시도라는 이유에서였다.<br />
특히 11월 대선을 앞두고 AI 기술로 만든 유명인의<br />
가짜 목소리가 가짜 정보를 퍼뜨리는 수단으로 악용<br />
될 수 있다는 우려도 확산했다.<br />
조사 결과 바이든 대통령의 목소리를 조작한 전화<br />
음성은 텍사스의 한 업체가 제작한 것으로 확인됐<br />
다. FCC는 이 업체에 대해서는 경고장을 보냈다고<br />
밝혔다.<br />
한편 연방 정부가 아닌 개별 주( 州 ) 차원에서도 AI<br />
를 활용한 가짜 정보 확산을 막으려는 움직임이 본격<br />
화하고 있다.<br />
올해 들어서만 10여개 주의회가 AI를 활용한 가짜<br />
이미지나 오디오로 선거운동을 하는 것을 금지하는<br />
법안을 추진 중이다.<br />
또한 주 및 지방 정부는 AI부터 개인 폭력 위협까지<br />
늘어나는 선거철 위협에 대처하기 위해 더 많은 자금<br />
과 자원이 필요하다고 말한다.<br />
미네소타 , 애리조나 및 기타 주에서는 허위 정보<br />
선거 딥페이크에 대응하는 방법에 대한 훈련을 위해<br />
미 국토안보부 산하 기관인 사이버보안 및 인프라 보<br />
안국(Cybersecurity and Infrastructure Security<br />
Agency, CISA)와 협력해 왔다.<br />
CISA에 따르면 CISA는 2023년에 주 및 카운티와<br />
27회의 선거 관련 모의 훈련을 실시했으며 127회의<br />
훈련을 실시했다.<br />
특히 사이버, 물리적, 운영적 위험에 관해 7천명이<br />
넘는 선거 관리 공무원들이 참여했다.<br />
달라스 카운티의 선거 관리자인 헤이더 가르시아<br />
(Heider Garcia)는 “불행히도 선거의 해를 맞은 2024<br />
년에 대비해야 한다고 생각한다”라며 “사람들을 실제<br />
정보 소스로 안내하는 것”이라고 밝혔다.<br />
박은영 기자 © KTN