갤럭시폰테크 지난 6·3 대선 당시 댓글 공작팀인 ‘자유손가락군대(자손군)’를 운영했다는 의혹을 받는 리박스쿨과 같은 사무실을 쓴 육사총구국동지회(육총)가 2020년 4·15 총선 당시 자손군과 유사한 ‘손가락혁명단’을 운영한 정황이 드러났다.
18일 경향신문 취재를 종합하면, 2020년 총선을 약 한 달 앞둔 3월16일부터 5일간 하루 3시간씩 ‘손가락혁명단’ 교육이 진행됐다. 교육 장소는 육총과 리박스쿨이 함께 쓰는 사무실이었다. 2017년 2월 결성된 육총은 육군사관학교 전역자들로 구성된 단체다. 리박스쿨은 같은 해 6월 결성됐다.
육총은 각 기수별 담당자들이 전역자 중 희망자를 취합해 교육 대상자를 모았다. 육사 12~40기가 대상자다. 1952년부터 1980년 입학한 이들로 60대 초반에서 90대까지 연령대로 추정된다.
강사는 교육방송(EBS) 이사 출신으로 리박스쿨에서 ‘디지털 교육’을 담당했던 조형곤씨가 맡았다. 조씨는 2021년 리박스쿨에서 댓글 자동 입력에 사용되는 매크로와 ‘드루킹 댓글 조작 분석’ 강의를 한 경력이 있다. 조씨는 손가락혁명단의 필요성, 방법, 선거효과 등을 강의한 것으로 전해졌다.
육총의 온라인 여론 개입 정황은 극우 유튜버 채널에서도 확인된다. 고성국TV에는 지난해 1월 ‘[육사구국총동지회 정치특강] 우리가 무엇을 할까요? 핸드폰을 드세요’라는 제목의 영상이 올라왔다. 2024년 1월8일 육총 기수별 대표를 대상으로 한 강연 영상이다. 고씨는 “(온라인에) 진짜 원하는 모든 정보가 다 있다. 그걸 지인에게 퍼나르는 게 제일 효과적으로 선거에 개입하는 것”이라거나 “이처럼 쉬운 선거운동이 어딨냐. 모바일이 제일 중요한 무기다” 등의 발언을 했다.
리박스쿨을 넘어 육총까지 댓글 조작에 가담한 정황이 나타난 만큼 수사 확대가 불가피해 보인다. 현재 경찰 수사는 지난 대선 당시 자손군의 댓글 조작을 초점을 맞추고 있다. 김성순 전 민주사회를 위한 변호사 모임 미디어언론위원장은 “이미 자손군의 댓글 조작 혐의에 대해 수사가 이뤄지고 있는데, 유사 단체에서 과거 유사한 활동이 있었다면 수사가 확대되는 것은 당연해 보인다”며 “2020년 총선 이후 유사 조직이 이름만 바꿔서 유지됐다면, 업무방해를 예비하고 있었던 계속범일 수 있으므로 이에 대한 수사도 필요하다”고 말했다.
2020년 당시 육총 간부였던 관계자는 통화에서 “육총 차원에서 조직적으로 희망자를 모집하거나 교육한 일이 없다”며 “희망자들이 알아서 교육받은 거로만 알지 (손가락혁명단은) 육총과 관계가 일체 없다. 기수 대표 회의에서 논의한 적도 없다”고 밝혔다. 강연자 조씨도 이날 관련 질의에 대해 문자메시지로 “5년 전 일이라 기억이 안 날 수도 있지만 댓글부대 교육은 하지 않았다”고 답했다.
“우리는 사건의 지평선을 넘어 이륙을 시작했고, 디지털 초지능을 만드는 데 접근하고 있다.”
오픈AI의 최고경영자인 샘 올트먼이 지난 6월11일 자신의 블로그에 올린 글이다. 그는 초지능 수준에 가까워진 인공지능(AI)이 과학적 진보와 생산성 향상을 주도함으로써 삶의 질에 가져올 이익은 엄청날 것이며, 우리가 얻을 수 있는 것이 얼마나 더 많을지 생각하면 매우 흥분된다는 격정을 반복해서 토로했다. 이렇듯 아찔한 속도로 발전하는 AI 소식을 매일 접하면 누구를 막론하고 그 경쟁 대열에 합류하려는 조바심이 날 수밖에 없다.
거의 공포마케팅 수준의 AI 경쟁 속에서 한국만큼 적응 열풍이 거센 나라도 드물다. 챗GPT 유료 구독자가 미국에 이어 세계 2위에 오를 정도다. 이제 막 임기를 시작한 이재명 대통령의 1번 공약 역시 ‘글로벌 AI 3대 강국’이다. 이렇다 보니 개인도 기업도 국가도 모두 뒤질지 모른다는 조급함으로 AI 경쟁에서 탈락하지 않기 위해 새 AI 버전이 출시될 때마다 따라잡기 바쁘다. 안간힘을 써서 적응하지 못하면 낙오되고 패배자가 될 것이라 믿기 때문이다. ‘AI를 어디에 이용하려는가’ 하는 정작 필요한 질문은 사라지고 ‘사회에서 퇴보되지 않으려면 AI에 적응해야 한다’는 강박만 남는다.
그런데 영국 케임브리지대의 AI 전문가인 션 S 오헤이가르티에 따르면, 개인과 기업, 국가들 사이의 무한 군비경쟁 양상으로 AI 발전을 해석하는 것은, 신뢰성 있는 AI를 위한 공적 규제로부터 관심을 돌리려는 극소수 빅테크들의 과장된 서사일 수 있다. 지금은 오히려 AI를 안전하게 이용할 민주적 거버넌스와 사회적 규칙을 마련할 때이며, 국제적으로도 초지능을 향한 무한 경쟁보다는 인류를 위한 더 나은 AI 이용을 위해 글로벌 협력이 필요할 때라는 것이다.
맞다. 올트먼도 말로는 인정하듯이 AI는 더 나은 우리의 삶을 위해 존재해야 한다. 현재 사회가 직면한 문제를 더 잘 해결하는 방향으로, 우리 사회의 윤리 기준을 더 높이고 민주주의 시스템을 더 탄탄하게 돕는 방향으로 AI가 인간의 삶에 적응해야 한다. 변곡점을 이미 지나고 있는 기후위기와 생태에 부담을 주는 방향이 아니라 완화시키는 ‘지속 가능한 AI’로 진화되어야 한다.
AI가 인간을 뛰어넘어 초지능이 가까워진다는 선언이나 생산성을 획기적으로 높여 성장률을 높여줄 은빛 탄환이 될 것이라는 기대, 이 때문에 국력을 모두 동원해서라도 첨단 AI 기술을 확보해야 한다는 주장을 비판적으로 성찰할 필요가 있다. 이런 주장들이 쏟아지면서 AI 반도체 공급 기업과 파운데이션 모델을 보유한 극소수 AI 빅테크와 스타트업의 시가총액은 천문학적으로 올라가지만 시민들의 웰빙이 증가된다는 징후는 불분명하기 때문이다.
예를 들어보자. 유행하는 대규모언어모델(LLM) AI가 정말 우리의 삶, 우리 사회의 정의와 윤리, 기후와 생태에 제대로 보탬이 되고 있을까? 온갖 차별과 불평등으로 얼룩진 과거 인류의 지식 데이터를 학습한 AI만으로 더 정의롭고 도덕적인 사회라는 전혀 다른 미래를 과연 추론해낼 수 있을까? 가장 빈도수가 많은 값을 선별해 정답이라고 알려주는 AI와, 한 가지 명확한 정답보다는 수많은 의견이 공존하고 경합할 수 있어야 하는 우리 사회는 어떻게 충돌을 피할 수 있을까? 과거의 데이터를 기반으로 미래를 가늠할 뿐인 AI는, 과거에는 상상도 할 수 없었던 ‘미지의 세계’로 접어든 기후위기 국면을 무슨 방법으로 정확히 예측해낼 수 있을까?
화려한 미래를 보장할 초지능 세계의 입구에 도달하기 위해 치열히 경쟁해야 한다는 올트먼의 암시와 달리, 지금의 AI는 인간의 욕구나 우리 사회의 윤리, 기후위기의 미래에 전혀 적응할 준비가 안 된 것 같다. 그런데도 우리가 무작정 AI에 적응하고 이를 위해 무차별 경쟁에 뛰어들어야 할까? 미디어와 사회의 책임 있는 인사들, 정부는 소수의 테크기업들처럼 AI를 따라잡으라고 시민들을 내몰기 이전에, 테크기업들로 하여금 AI가 우리 사회와 기후와 환경에 적응하도록 유도해야 하지 않을까?