오픈AI, 자사 인공지능 악용한 다섯 개의 캠페인 적발 후 무력화
페이지 정보
본문
이미 인공지능은 공격자들의 친구처럼 입지를 굳혀가고 있다. 여러 공격자들이 인공지능으로 자신들이 할 일을 쉽고 편하게 하고 있다. 그나마 다행인 건 의미 있는 성과가 아직 없다는 건데, 그 동안 우리는 방어를 좀 더 굳건히 할 필요가 있다.
[보안뉴스=네이트 넬슨 IT 칼럼니스트] 인공지능 개발 단체인 오픈AI(OpenAI)가 자사 인공지능을 활용한 악성 캠페인 다섯 개를 적발해 중단시켰다고 발표했다. 캠페인의 배후에는 중국, 이란, 이스라엘, 러시아가 있었다. 러시아 공격자들이 진행한 캠페인은 두 개였다. 주로 정치적 혹은 외교적 의도가 가득한 메시지들이 이들의 캠페인을 통해 전달됐다. 인공지능은 가짜뉴스 콘텐츠 등을 생성하는 데 활용됐다.
다행히 다섯 개 캠페인 중 특출난 효과를 본 것은 없는 것으로 파악되고 있다. 여론을 조성하는 캠페인의 효과를 측정하는 서비스인 브루킹즈브레이크아웃스케일(Brookings Breakout Scale)에 따르면 이 다섯 개 중 2점 이상 받을 만한 게 없다고 한다. 1점은 단 하나의 커뮤니티나 플랫폼에 가짜뉴스가 퍼졌다는 뜻이며, 2점은 하나의 플랫폼 내 여러 커뮤니티나 여러 플랫폼에 걸쳐 있는 하나의 플랫폼에 영향을 미쳤다는 뜻이다. 6점이 최고 점수다.
인공지능 기반 여론 조성 캠페인의 현 주소
이 다섯 개 캠페인은 다양한 지역에서, 다양한 국가의 해커들에 의해 수행되었지만 여러 가지 면에서 비슷한 양상을 나타냈다. 각각의 캠페인은 다음과 같이 진행됐다.
1) 스패모플라지(Spamouflage) : 중국의 조직이 진행한 캠페인이다. 오픈AI의 인공지능 도구를 활용해 코드의 디버깅을 실시하고, 소셜미디어에서 자신들이 원하는 것으 조사하고, 엑스와 미디엄, 블로그스폿에 자신들의 콘텐츠를 여러 가지 언어로 업로드 했다.
2) 배드그램마(Bad Grammar) : 러시아를 기반으로 활동하는 단체로 이번에 새롭게 발견됐다. 주로 텔레그램에서 활동하며 동유럽과 미국의 개개인들을 공략하려 하는 편이다. 인공지능을 활용해서 코드 디버깅을 진행하기도 했고, 자신들이 퍼트리는 글이나 댓글을 작성하기도 했다. 주로 러시아어와 영어로 콘텐츠를 만들었는데, 언어 전환에도 인공지능이 활용됐다.
3) 도플갱어(Doppelganger) : 또 다른 러시아 조직으로 인공지능을 활용해 엑스와 나인개그(9GAG)용 콘텐츠를 만들어 업로드 했다. 무려 다섯 개 언어로 콘텐츠를 만들어 퍼트렸는데, 따라서 번역 기능을 대단히 활발히 사용할 수밖에 없었다. 페이스북에 다양한 뉴스들을 스크랩하고 번역하고 편집해서 자신들이 원하는 게시글로 만드는 데에도 인공지능을 사용했다.
4) IUVM : 국제가상미디어연합(International Union of Virtual Media)의 준말로 이란에 근거지를 두고 활동하는 공격 단체다. 인공지능을 활용해 콘텐츠를 만들고 여러 언어로 번역했다. 웹사이트 태그 등도 같은 방식으로 제작했다.
5) 제로제노(Zero Zeno) : 이스라엘에 기반을 둔 정치 마케팅 및 비즈니스 인텔리전스 전문 기업인 스토익(Stoic)이 운영하는 캠페인의 이름이다. 스토익은 오픈AI의 인공지능 기술을 활용해 가짜뉴스 기사를 생성하고, 여러 플랫폼에서 활용할 댓글도 만들어냈다. 인스타그램, 페이스북, 엑스 등 소셜미디어 콘텐츠도 인공지능으로 제작했다.
NSA 출신 해커인 제이크 윌리엄즈(Jake Williams)는 “텍스트를 기반으로 한 여론 형성 캠페인으로 큰 효과를 거두기는 힘들다”고 말한다. “웹이라는 환경에서 접하는 텍스트를 믿는 사람들이 빠르게 줄어들고 있거든요. 웹에서 돌아다니는 글들을 진지하게 읽는 사람도 요즘은 찾기 힘들죠. 다들 어느 정도는 걸러 듣거나 흘려 듣습니다. 웹 콘텐츠를 확인 없이 신뢰하는 건 어리석은 일이라는 걸 모두가 인지하고 있습니다.”
허위 정보의 살포, 왜 기술로 막을 수 없나
위의 다섯 가지 캠페인에 대해 알리면서 오픈AI는 “산업 내 여러 파트너들과 힘을 합하여 인공지능의 남용과 악용을 막으려 하고 있다”고 밝히기도 했다. 그러면서 “사용자들이 좀 더 안전해질 수 있는 플랫폼을 만들고자 한다”고도 말했다. “이런 종류의 악성 캠페인은 앞으로도 계속 나올 것이고, 저희 역시 그런 시도들을 계속해서 잡아낼 것입니다.”
하지만 그런 오픈AI와 파트너들의 노력이 ‘기술’로 국한될 가능성은 낮아 보인다. 즉 자동으로 인공지능의 남용 시도를 잡아내 무력화시키는 솔루션은 당분간 나오기 힘들다는 뜻이다. 블랙버드(Blackbird)의 CTO인 노샤드 우자만(Naushad UzZaman)은 “인공지능 악용 시도를 빠르고 정확하게 잡아낼 솔루션이라는 건 아직까지 존재하지 않는다”며 “미래에 나올 가능성도 높지 않다고 보고 있다”고 말한다.
“벌써 인공지능으로 거짓 여론을 만들어 퍼트리는 공격이 유행하고 있다지요. 그런데 기술이 아무리 발전해도 상황은 악화되기만 할 겁니다. 왜냐하면 가짜 콘텐츠 혹은 악성 콘텐츠를 자동으로, 알아서 잡아내는 기술이 나오려면 아직 멀었거든요. 인공지능으로 거짓을 생성하는 건 아주 쉬운 일인데, 그 거짓을 인공지능으로 잡아내게 하는 건 대단히 어려운 일입니다. 그런 인공지능은, 오히려 가짜를 파악하려 여러 가지 콘텐츠 생성 방법을 학습하게 될 텐데, 그 학습 과정이 끝나면 오히려 더 강력한 가짜 생성기가 될 겁니다.”
우자만은 “악성 인공지능을 기술로 잡아내려는 생각이 당분간은 오히려 우리를 위협하는 것으로 작용할 것이 분명해 보인다”고 말한다. “없는 것을 쫓는 것이거든요. 신기루로 달려가는 것과 같죠. 그러면서 불필요한 힘이 빠지게 되고 진짜가 있는 옳은 방향을 보지 못하게 되기도 합니다. 지금으로서는 기술이 아니라 인력 교육, 공조, 협력, 파트너십으로 가짜뉴스 캠페인을 적발하고 조치를 취해아 합니다.”
… 출처 및 원문: https://www.boannews.com/media/view.asp?idx=130362&kind=&sub_kind=
aquapill님의 댓글
진짜와 가짜, 진실과 거짓을 구분할 수 없는 디스토피아가 눈앞인가 싶습니다. 민주주의의 가장 큰 위협은 AI가 될 겁니다.
백장미님의 댓글