09.02.2024 Views

712호 2024년 2월 9일 A면

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

FEB 9 2024• KOREA TOWN NEWS<br />

COVER STORY<br />

| 19<br />

지난 달 뉴햄프셔 프라이머리에서 논란이 된 조바이든 대통령의<br />

가짜 전화 사건<br />

이 목소리는 바이든 대통령의 것과 같았고, 이 말은<br />

바이든 대통령이 즐겨 쓰는 표현이었다. 이 목소리는<br />

“공화당은 무소속 유권자와 민주당 유권자가 예비 경<br />

선에 참여하도록 압력을 가해 왔다. 정말 말도 안 되<br />

는 소리”라고 하면서 “당신의 표를 11월 선거를 위해<br />

아껴두는 게 중요하다. 이번 예비 경선에 투표하지 말<br />

라”고 전했다.<br />

한편 백악관은 즉시 해당 로보콜이 생성형 AI가 만<br />

든 딥페이크(deepfake)라고 해명했다.<br />

그간 ‘AI 기술이 민주주의를 위협할 것’이란 우려<br />

가 전문가들을 사이에서 제기됐지만, 선거 기간 특<br />

정 후보의 득표를 방해하려는 목적으로 AI 로보콜<br />

이 광범위하게 유포된 건 미 선거 역사상 이번이 처<br />

음이었다.<br />

올해 미 대선이 직면한 딥페이크 문제는 다방면에<br />

걸쳐 있다.<br />

AI 기술의 급격한 발달을 기반으로 한 가짜 콘텐츠<br />

들은 매우 쉽게 제작될뿐더러 여론을 조작하고 불화<br />

를 조장하는 데 악용된다. 그리고 이는 대선 후보 및<br />

정치 기관에 대한 신뢰를 약화한다.<br />

전문가들은 정부, 기업, 사회 전체가 디지털 문<br />

해력과 인식을 증진하는 한편 AI의 악용에 대응하<br />

기 위한 공동의 노력을 기울여야 한다고 입을 모으<br />

고 있다.<br />

이들은 언론과 정당에 대한 불신이 높은 나라일수<br />

록 딥페이크가 치명적 영향을 줄 수 있다고 말한다.<br />

딥페이크로 조작된 ‘그럴듯한’ 가짜정보를 선택적<br />

으로 받아들여 극단화된 의견에 갇힐 경우, 정치 양<br />

극화는 더 악화할 수 있다는 것이다.<br />

또한 패배 진영은 불리한 이미지나 영상이 조작되<br />

었다고 주장하며 선거 결과에 불복하고 폭력 사태를<br />

일으킬 수도 있다.<br />

◈ FCC, AI로 유명인 목소리 위조한 전화 마케팅<br />

불법화<br />

세상에 없는 인물과 이미지를 만들어 내는 딥페이<br />

크가 더 방대한 정보가 투입되는 딥러닝을 통해 더 정<br />

교해지고 실존에 가까워지고 있다.<br />

사람이 만든 진짜 정보와 AI가 생성한 가짜 정보를<br />

구별할 수 없는 상황 속에 슈퍼 선거의 해를 맞아 그<br />

영향은 더욱 클 것으로 예상된다.<br />

이에 미 정부는 전화 마케팅에 인공지능(AI)을 활<br />

용한 가짜 목소리인 ‘오디오 딥페이크’를 사용하는 것<br />

을 금지했다.<br />

지난 8일(목) 연방통신위원회(FCC)는 ‘전화 마케팅<br />

에 대한 소비자보호법’(TCPA)을 근거로 이 같은 결<br />

정을 내렸다.<br />

FCC는 전화에 AI 기술로 만든 가짜 목소리를 사용<br />

하기 위해선 먼저 상대방의 동의를 받아야 한다고 규<br />

정했다.<br />

불특정 다수에게 전화를 건 뒤 유명 인사가 직접 녹<br />

음한 것처럼 상대방을 오도해 상품을 판매하거나, 광<br />

고를 하는 것이 불가능해진 셈이다.<br />

FCC는 금지 규정을 지키지 않은 업체에 대해선 벌<br />

금을 부과하고, 주 검찰에도 단속권을 부여하기로 했<br />

다. 이번 규정은 즉시 발효된다.<br />

FCC의 결정은 지난달 뉴햄프셔 프라이머리(예비선<br />

거)에서 조 바이든 대통령의 가짜 목소리를 활용한 전<br />

화가 기승을 부린 사건이 계기가 됐다.<br />

당시 민주당은 바이든 대통령에게 피해를 주려는<br />

목적에서 꾸민 정치공작이라고 반발했다. 프라이머리<br />

개최를 방해하려는 시도라는 이유에서였다.<br />

특히 11월 대선을 앞두고 AI 기술로 만든 유명인의<br />

가짜 목소리가 가짜 정보를 퍼뜨리는 수단으로 악용<br />

될 수 있다는 우려도 확산했다.<br />

조사 결과 바이든 대통령의 목소리를 조작한 전화<br />

음성은 텍사스의 한 업체가 제작한 것으로 확인됐<br />

다. FCC는 이 업체에 대해서는 경고장을 보냈다고<br />

밝혔다.<br />

한편 연방 정부가 아닌 개별 주( 州 ) 차원에서도 AI<br />

를 활용한 가짜 정보 확산을 막으려는 움직임이 본격<br />

화하고 있다.<br />

올해 들어서만 10여개 주의회가 AI를 활용한 가짜<br />

이미지나 오디오로 선거운동을 하는 것을 금지하는<br />

법안을 추진 중이다.<br />

또한 주 및 지방 정부는 AI부터 개인 폭력 위협까지<br />

늘어나는 선거철 위협에 대처하기 위해 더 많은 자금<br />

과 자원이 필요하다고 말한다.<br />

미네소타 , 애리조나 및 기타 주에서는 허위 정보<br />

선거 딥페이크에 대응하는 방법에 대한 훈련을 위해<br />

미 국토안보부 산하 기관인 사이버보안 및 인프라 보<br />

안국(Cybersecurity and Infrastructure Security<br />

Agency, CISA)와 협력해 왔다.<br />

CISA에 따르면 CISA는 2023년에 주 및 카운티와<br />

27회의 선거 관련 모의 훈련을 실시했으며 127회의<br />

훈련을 실시했다.<br />

특히 사이버, 물리적, 운영적 위험에 관해 7천명이<br />

넘는 선거 관리 공무원들이 참여했다.<br />

달라스 카운티의 선거 관리자인 헤이더 가르시아<br />

(Heider Garcia)는 “불행히도 선거의 해를 맞은 2024<br />

년에 대비해야 한다고 생각한다”라며 “사람들을 실제<br />

정보 소스로 안내하는 것”이라고 밝혔다.<br />

박은영 기자 © KTN

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!