본문 바로가기
최신호 85호 <모자이크: 잊고 있던 조각들>/사회

속 보이는 커뮤니티 세상

by 중앙문화 2024. 2. 2.

2023 가을겨울 85호 <모자이크: 잊고 있던 조각들>

 

부편집장 곽경은

편집위원 김세원

 

 

 2023년 7월 서울 신림동에 흉기난동 사건이 발생했다. 평화로웠던 오후 2시의 신림역은 핏빛으로 물들었다. “내가 불행하게 사는 만큼 남들도 불행하게 만들고 싶었다[각주:1]는 조씨는 그렇게 1명의 생을 앗아가고, 대중에게 충격을 줬다. 가해자는 현행범으로 잡혔지만, 이는 시작일 뿐이었다. 사건 이후 약 한 달 만에 온라인 커뮤니티에서 440건이 넘는 ‘살인 예고글’이 집계됐다.[각주:2] 그야말로 삶을 뺏는 살인이 ‘유행’처럼 소비되기 시작한 것이다.

 

▲ 직장인 커뮤니티 '블라인드' 에 올라온 살인 예고 글.

 

           

 ‘살인 예고 글’은 온라인 커뮤니티의 종류를 가리지 않았다. 8월 3일 서현역에서 무차별적으로 흉기를 휘두른 최씨는 범행 전 ‘디시인사이드[각주:3]’에 살인을 예고했다. 21일 블라인드에는 경찰을 사칭한 A씨가 강남역에서의 범행을 예고했다. 대학생 대표 커뮤니티인 ‘에브리타임’도 그 흐름에서 벗어날 순 없었다. 대구대학교 게시판에 칼부림을 예고한 글이 게시되자, 학생들은 학교라는 공간 안에서 장시간 두려움에 떨어야 했다.[각주:4] 살인 예고 글 대부분이 실행에 옮겨지지 않은 허위 게시글이었고 작성자는 보통 수 시간 내에 검거됐다. 하지만 이미 몇 차례 무차별 살인 행위를 목격한 시민들의 불안감은 더욱 커져만 갔다. 불난 집에 부채질하듯 디시인사이드에서는 ‘칼부림 사건 갤러리’가 개설돼 각종 모방범죄와 피해자를 향한 2차 가해가 이루어졌다.[각주:5] 지하철역, 기차역, 학교, 백화점, 버스 터미널, 공연장. 더 이상 안전한 공간은 없다. 일상 속 평범한 공간들은 위험이 도사리는 장소로 변했다. 

 

 

온라인 커뮤니티는 무법지대?

 

 전국에, 동시다발적으로 발생하는 ‘범죄 예고 글’에 처벌을 가해야 한다는 목소리가 높아졌다. 그러나 아직 이들을 응징할 마땅한 법이 없다. 협박죄, 살인예비죄, 살인예비음모죄 등이 있긴 하지만 이들에게 적용될 확률은 극히 낮다. 협박죄[각주:6]의 경우, 대상자를 특정하지 않고 불특정 다수를 향해 협박할 경우 그 대상이 명확하지 않기 때문에 중범죄로 처벌하기 어렵다. 살인예비죄[각주:7]적용은 더욱 까다롭다. 흉기를 구입하는 등의 외적 행위가 나타나지 않을 경우 살인예비죄의 조건을 충족하지 않는다고 판단한다. 게시글로 살인을 예고하는 행위는 의도일 뿐 외적 행위의 표현으로 간주하고 있지 않다. 이렇듯 커뮤니티에 게시되는 글의 대부분은 날짜와 장소, 범행 대상과 방식이 구체적이지 않기에 현행법상으로 처벌하기 어렵다.[각주:8] 실제로 살인 예고 글의 작성자가 기소됐을 때 협박과 살인예비의 혐의가 아닌 ‘위계에 의한 공무집행방해 혐의’만 적용해 처벌하는 실정이다.[각주:9]

 

 처벌이 마땅치 않으면 커뮤니티를 폐쇄하라는 의견은 ‘표현의 자유’라는 방패가 막아섰다. 지난 5월 ‘디시인사이드 우울증 갤러리’를 이용하는 청소년이 자살하자 경찰은 해당 갤러리의 폐쇄를 요청했다. 하지만 디시인사이드는 게시글의 저작권은 이용자에게 있다며 이를 거부했다. 마찬가지로 방송통신심의위원회(이하 방통위)도 갤러리 폐쇄가 사용자의 표현의 자유를 저해하고 해당 갤러리를 폐쇄하는 것이 해결책이 될 수 없다고 판단하며 실현되지 못했다. 

 

 이처럼 공포를 유발하는 범죄 예고글이 퍼지면서 온라인 커뮤니티에 적용할 수 있는 새로운 규정의 필요성이 대두됐다. 지난 8월 법무부는 “살인 예고글 등 공중 협박 행위에 대한 규정 관련 법률 개정을 추진하겠다”고 밝혔다.[각주:10] 이어 9월 홍석준 국민의힘 의원은 온라인 커뮤니티에서 유통되는 불법 정보가 사회적 악영향을 미친다고 보고, 이에 대응하는 ‘정보통신망법 개정’을 추진했다. 방통위의 온라인 커뮤니티 자체 모니터링과 커뮤니티 사이트에 대한 사업자의 자율적 규제와 책임 강화가 준비 중인 개정안의 주된 내용이다. 경찰과 검찰뿐 아니라 국회에서도 온라인 환경의 개선을 위해 발 벗고 나섰다.  

 

 

신기루 : 잡힐 듯 잡히지 않는

 

 살인 예고 글 작성자를 추적해 체포하고, 이에 대한 처벌 강화를 소리치는 상황에서 한 가지 의문이 생긴다. 애초에 온라인 커뮤니티 환경은 정말 근본적인 개선이 가능하긴 할까? 한동훈 법무부 장관은 ‘살인 예고 글 게시가 국민을 불안에 떨게 만들며 공권력의 행사를 방해하는 중대 범죄’라 말했다.[각주:11] 이에 가해자에게 형사책임뿐만 아니라 민사책임까지 물을 것이라 선언하며 온라인상에서 발생하는 허위 게시글에 대한 강력한 처벌 또한 예고했다. 즉, 작성자의 의도에 무관하게 타인의 안전을 위협해 손해를 가했다면 손해배상책임을 묻겠다는 것이다. 국가가 범죄에 대해 처벌하지 못하더라도 개인의 피해에 대해서는 보상을 책임지겠다는 결의를 드러냈다.

 

 이후 경찰은 고척스카이돔에서 흉기 난동을 벌이겠다고 살인 예고글을 올린 초등학생을 소년 재판에 송치했다.[각주:12] 검찰도 청소년의 SNS상 살인 예고 글의 파급력을 우려해 소년범을 정식 기소하며 엄정한 대응을 보였다. 그러나 책임 정도를 결정하는 건 판결이다. 검경의 강력한 조치에도 강력한 처벌로 이어지는 것은 극히 드물었다. 법이 바뀐 것은 아니기 때문에 기소를 진행해도 이를 범죄라 판단할 근거가 없다. 

 

 인터넷 속 새로운 형태의 범죄가 갑작스레 증가했지만 우리는 모두 알고 있다. 커뮤니티 문제가 제기된 건 이번이 처음이 아니라는 것을. 늘 문제는 많이 제기됐지만 문제의 답은 찾지 못했다. 범죄에 대한 처벌은 중요하다. 살인 예고 글은 사회적인 문제로 인식됐고 이의 처벌 강화는 범죄 감소에 일시적인 도움이 될 수 있다. 하지만 근시안적으로 문제를 바라보면 결국 살인 예고 글이 왜 커뮤니티에서 유행했는지, 그리고 왜 수사와 처벌에 난항을 겪는지 그 원인을 찾지 못한 채 돌아서야 한다. 애초에 불특정 다수를 향해 실행 가능성을 판단하기 어려운 언행을 처벌할 수 있는 규정이 없는 상태에서 가해자를 잡아들인들, 무엇을 더 할 수 있겠는가? 

 

▲'살인예고 글 처벌에 대한 정보통신망법 개정안 발의' 아시아경제.

 

 

 한편, 국회에서 논의되고 있는 법안들도 내년 총선을 앞두고 폐기될 위기에 처했다.[각주:13] 국회의안정보시스템에 따르면 11월을 기준으로 홍 의원이 발의한 정보통신망법 개정안을 포함해 총 3건의 살인 예고 글 처벌 관련 법안이 발의됐다.[각주:14] 3건의 법안 모두 살인 예고 글 파동 직후인 8월에 제안됐음에도 불구하고 단 한 건도 소관 상임위원회(과학기술정보방송통신위원회)로 상정되지 않았다. 국회 임기 동안 국회 본회의를 통과하지 못한 법안은 해당 국회의 임기 만료와 함께 폐기된다. 발의한 법안이 국회 본회의를 통과하는 데는 평균 1년 6개월에서 2년의 기간이 걸린다.[각주:15] 21대 국회 임기 만료가 임박한 상황에서 상임위에 논의조차 되지 않는 관련 법안들에 실효성을 기대하기는 어려워 보인다. 근본적인 원인에 대한 접근이 없으니 어쩌면 당연하다. 무너진 집에 대들보를 세우긴커녕 지붕부터 얹으려는 꼴이다. 

 

 

집 짓기는 기둥부터

 

 우리에게 필요한 건 단순히 특정 범죄에 대한 처벌이 아니라 온라인 환경의 개선이다. 온라인 커뮤니티와 SNS 생태계 전반에 적용할 수 있는 포괄적인 법안이 필요하다. 

 

 정보통신정책연구원(KISDI)에서 분석한 ‘2021 세대별 SNS 이용 현황’에 따르면 밀레니얼 세대(25~38세)의 SNS 이용률은 83.5%, 아래 세대인 Z세대(9~24세)는 72.6%를 기록했다. 전체 이용률도 55.1%로 온라인 환경의 친숙도는 날이 갈수록 높아지고 있다. 한번 떠올려 보자. 자신이 사용하는 온라인 커뮤니티의 이용 규칙을 들어본 적 있는가? 놀랍게도 커뮤니티마다 이용 규칙은 존재하나 이를 어긴다고 받는 제재는 고작 게시물 삭제 또는 서비스 이용 제한뿐이다.  피해자에 대한 구제나 가해자에게 법적 책임을 물을 방법은 없다. 표현의 자유를 기저에 두고 만들어진 소통의 공간은 개인의 도덕성에 대한 신뢰를 전제로 운영된다.

 

 자유로운 소통? 좋다. 서로 다른 개인은 각자의 공간에서 현실에서는 하지 못할 진솔한 이야기를 나눌 수 있다. 가입자 수 800만 명을 돌파한 블라인드는 “익명성을 통한 투명한 소통[16]”을 서비스의 모토로 삼는다. 같은 소속의 사람들과 커뮤니티를 공유하면서도 개인의 특정 신상은 드러내지 않는 것이 대표적인 특징이다. 

 

 하지만 신상을 가린 소통 공간은 게시글의 유해성을 판단하는 기준과 그 주체도 가려버렸다. 블라인드는 게시물 신고 시스템을 명시하지 않는다. 신고 기준이 무엇인지, 게시글 작성자가 어떤 내용으로 신고를 당했는지, 신고 이후에는 어떻게 되는지 공지하지 않고 있다. 이용자는 게시글의 위법(유해)성에 대한 판단의 근거를 가지기 어렵다. 블라인드 고객센터는 "소통의 공간에 개입하지 않는다는 원칙이 있기에 현재로서는 직접 신고된 글을 확인하기 어렵다."며 적극적인 신고를 통한 자동 숨김 처리 시스템으로 운영된다고 답했다. 블라인드는 인공지능(AI) 자동 시스템으로 게시물을 관리한다. 토픽에 맞지 않는 게시글, 음란성, 욕설 등 신고 사유에 해당하는 내용은 다른 이용자들의 신고가 접수되어 시스템에 따라 자동으로 글 숨김, 작성자 이용 제한 조치가 이루어진다.

 

 

▲왼쪽부터 '블라인드', '에브리타임', 아래 '에브리타임 게시물 신고센터'.

 

 

 

 반면, 에브리타임은 커뮤니티 이용 규칙을 주기적으로 개정하고 홈페이지에 세분화해 명시한다. 또한 이용 규칙을 어긴 게시물을 관리하는 신고센터를 운영하고 있다. 게시물로 인한 타인의 권리 침해가 발생했을 때 게시 중단 요청을 신고할 수 있는 ‘권리침해신고센터’와 불법촬영물을 신고할 수 있는 ‘유해정보신고센터’로 나눠져 있다. 하지만 게시물의 처리 과정이  AI에 이루어진다는 점에서 블라인드와 동일하다.  삭제된 게시물의 작성자가 그 사유를 관리자에게 물어도 알 수 없다. 신고된 게시물에 대한 사전 검토나 게시판 관리자의 임의 검토가 불가능한 것이다.

 

 자동으로 글의 유해성을 판단해주는 시스템은 운영자들에겐 편하다. 국내 온라인 커뮤니티에서는 게시글에 대한 이용자의 신고를 바탕으로 신고가 누적되면 게시판 관리자의 규제 없이 즉시 해당 게시물이 삭제되는 AI 자동 시스템을 적극 이용하고 있다. 하지만 관리자의 개입과 인간의 판단이 일절 차단된 자동 시스템에는 문제가 있다. 단순 신고 누적으로 인한 글 삭제는 커뮤니티 내에서 소수 의견을 묵살하는 수단으로 작용하고 있는 것이다. 

 

 커뮤니티 사용자는 다양한 정보와 타인이 작성한 게시글에 하루에도 수십번, 수백번 접할 수 있다. 높은 접근성은 그만큼 유해한 콘텐츠에 노출될 가능성이 높은 환경에 놓여 있다는 의미이기도 하다. 그렇기에 온라인 커뮤니티에서 발생하는 범죄로 인한 피해를 막기 위해서는 가장 먼저 유해 콘텐츠 확산을 차단해야 한다. 물론 빠른 판단을 위한 시스템도 중요하지만, 유해성 판단을 AI에게만 맡기는 건 위험하다.   

 

 불과 몇년전 에브리타임에서 그 위험성이 입증됐다. 2020년 n번방 사건 이후 여성혐오성 게시글이 올라오면서 피해자에 대한 2차 가해가 발생했다. 이에 성평등 단체와 700명이 넘는 개인이 에브리타임 측에 커뮤니티 윤리규정 마련을 요구했으나 에브리타임 측은 무응답으로 일관했다.[각주:16] 게시물이 유해성을 보이더라도 신고가 없으면 이를 규제할 방안이 없다. 또한 에브리타임에서는  여성주의 동아리 회원 모집 글은 즉각적으로 삭제된다고 한다. 해당 모집 글은 타인을 혐오하거나 배척하는 내용을 찾아볼 수 없음에도 누군가의 신고에 의해 자동으로 삭제된다. 

 

 이처럼 자동 시스템은 다수의 합의를 바탕으로 구축된 시스템을 표방해 민주적인 것처럼 보이지만 주류와 반대되는 소수 의견을 침묵시키는 데 작용되도 한다. 인간의 사고판단을 거치지 않고 하나의 의견이 담긴 게시물을 ‘기계’적으로 처리하는 것은 옳지 않다. 기계가 콘텐츠를 자동으로 삭제하기보다 유해성을 결정짓는 규정에 따라 커뮤니티 운영자의 최종적인 결정 과정이 필요하다. 

 

 

소 잃고 외양간 고치기는 이제 그만

: 독일 네트워크 법집행법(NetzDG) 

 

 

 사람의 개인적인 판단이 절대적으로 옳을 수는 없다. 하물며 다양한 의견을 공유하는 장인 온라인 커뮤니티에서 관리자에 의해 개인의 발언에 제약이 가해진다면 이는 커뮤니티의 핵심이자 목적을 훼손하는 것이다. 독일은 표현의 자유와 제약, 그 사이에서 관리자의 개입 정도에 대한 고민을 네트워크 법집행법에서 풀어냈다.

 

 독일은 기본법 제5조에 표현의 자유를 명시하고 있다. ①의사표현의 자유 ②의사전달의 자유 ③정보의 자유 ④프레스의 자유 ⑤방송의 자유 ⑥영화의 자유. 6개의 자유권을 분리해 기본권을 규정하고 개별적인 기본권으로 간주해 특성에 맞는 법적 성격과 해석을 규정한다. 이처럼 표현의 자유란 독일에서 중요하게 생각되는 가치 중 하나이다. 하지만 온라인 커뮤니티에서 극우주의 발언과 나치즘을 선동하는 게시물이 확산되며 독일은 ‘표현의 자유’와 그 규제에 대한 경계를 정립할 시기를 맞이했다. 

 

 이에 2017년 ‘소셜네트워크에서의 법집행 개선을 위한 법률[각주:17](이하 네트워크 법집행법)’이 당시 연방 법무부장관 하이코 마스에 의해 제정됐다. 2018년 1월부터 독일 내 2백만 명 이상의 사용자가 등록된 페이스북, 트위터, 유튜브를 비롯한 온라인 플랫폼과 소셜 네트워크에 적용됐다. 초기 네트워크 법집행법은 운영자의 판단에 맡겼다.. 운영자들은 플랫폼 이용자가 신고한 게시물을 24시간 이내에 위법성을 판단하고 그 기준에 부합하면 플랫폼 내에서 자체적으로 게시물을 삭제해야 함을 골자로 한다. 또한 운영자들은 6개월에 한 번씩 네트워크 법집행법에 따라 처리된 해당 게시물들에 대한 투명성보고서(Transparenzbericht)[각주:18]를 의무적으로 발행해야 하는 규정을 포함하고 있다. 

 

 하지만 자칫 잘못하면 개인의 의견에 대한 ‘검열’이 이루어질 수 있다는 비판이 일었다. 소셜 네트워크 회사는 벌금을 피하고자 신고가 들어오면 충분한 검토 없이 게시물을 삭제할 가능성을 배제할 수 없다. 또한 신고된 게시물이 위법 기준에 부합하지 않더라도 신고자는 처벌받지 않기에 이 법을 악용해 자신과 의견이 다른 게시물을 무분별하게 신고하는 경우도 발생할 수 있다. 당시 입법 단계에서도 독일 야당의 큰 비판을 받았다. 녹색당은 “무르익지 않은 법안”이라고 비판했으며, 자민당 소속 연방 하원의원들은 프랑크푸르트 행정법원에 소송을 제기했다.[각주:19] 정부가 벌금을 매겨 온라인 사업자에게 게시물을 삭제하도록 강요하는 조치가 불법이라는 것이다. 표현의 자유와 권리 침해라는 넘을 수 없는 벽을 만난 것 같은 네트워크 법집행법. 이대로 사라지나 했지만 시행된 지 3년 만에 오히려 강화된 형태로 돌아왔다.  

 

 2019년 6월 독일의 카셀 시장이 신나치주의자에게 살해된 것을 시작으로 할레 유대교당 테러 등 나치 역사를 재현하는 듯한 범죄가 발생했다.[각주:20] 나치주의뿐 아니라 독일 곳곳에서 인종주의 테러가 발생했다. 2020년 2월 하나우에서는 외국인과 이주 독일인 10명이 살해됐다. 발생한 사건들은 모두 극우주의 범죄로 가해자가 SNS에 범죄를 예고했으며 범행을 생중계까지 해 더 큰 충격을 줬다. SNS가 범죄의 확산에 이용될 수 있다는 사실이 네트워크 법집행법의 강화를 불러일으켰다.

 

 플랫폼 운영자의 역할은 더 확대됐다. 2020년 6월 독일 연방의회는 네트워크 법집행법 개정안을 의결했다. 개정안에 따르면 SNS 사업자의 역할은 신고된 게시물을 삭제하는 데서 그치지 않는다. 삭제조치 하더라도 유해성 게시물이라 판단된 게시물은 연방범죄수사청에 신고까지 해야 한다. 불법 게시물과 작성자의 IP주소를 함께 알려 원활한 수사 진행을 가능하게 만들기 위해서이다. 이뿐만 아니라 처벌이 약하다는 비판을 고려해 형법까지 강화됐다. 기존 최대 1년 자유형이었던 온라인의 모욕과 협박죄의 처벌을 최대 2년 자유형으로 형법을 개정한 것이다. 

 

 사용자 스스로 표현의 자유를 보호할 창구도 마련했다. 크리스티네 람브레히트(Christine Lambrecht) 연방 법무부 장관은 사업자의 판단으로 인해 표현의 자유가 침해될 것이라는 비판에 ‘사용자의 권리 강화’를 추가했다. 명예를 훼손당하거나 타인에게 위협 받은 사람은 관련 게시물을 직접 신고할 수 있다. 또한 플랫폼 내에서 신고 절차를 찾기도 쉬워지며 게시물 작성자의 데이터 요청 과정도 단순화시켰다. 또한 이의신청철자를 도입함으로써 플랫폼의 자의적, 무단 결정으로부터 사용자를 보호하는 장치를 마련했다. “말이 행동이 된다”는 람브레히트의 말에서 온라인의 자유로운 환경 속에 규제가 필요함을 알 수 있다. 

 

 네트워크 법집행법은 시행 초기에는 충분히 논의가 이루어지지 않은 법안이라는 비판을 받았다. 하지만 이의신청절차 도입, 신고절차 개선, 정보청구권 개선, 투명성 보고서 통계 세분화 연구기관에 통계 자료 제공 등 개정안을 통해 사용자의 권리와 규제 사이에서의 균형을 찾고자 노력했다. 온라인 플랫폼 사업자가 자의적인 판단으로 게시물을 규제하는 것을 방지하기 위해 사용자 권리 보장의 이중 보호막을 확립한 점에서 의의가 있다. 또한 의무적인 투명성 보고서 제출과 연방범죄수사청과의 협조는 온라인 사업자와 국가의 시너지를 확보할 수 있게 했다. 

 

 

소통할 공간만 마련하면 다가 아니라구요

: 디지털 서비스법(Digital Service Act)

 

 

 현재 온라인 커뮤니티에서 발생하는 범죄에 대한 책임은 유해한 콘텐츠를 생산한 생산자, 다시 말해 정보 게시자에게 있다. 그러나 온라인 커뮤니티는 그 특성상 게시글을 올리고 나면 그 순간부터 게시자는 정보의 확산을 막을 수가 없다. 게시글을 삭제하더라도 캡쳐와 함께 이미 재게시된 게시물의 확산은 자신의 의지와 무관하다. 확산된 게시물은 피해자를 향한 2차 가해가 될 수 있고, 다른 사용자들의 안전한 커뮤니티 이용을 저해한다. 

 

 이에  EU는 온라인 플랫폼 사업자를 대상으로 유해 콘텐츠의 ‘확산 방지’의 책임을 부여하는 법안을 확립했다. 2020년 12월 15일 EU 집행위원회는 디지털 서비스법(Digital Services Act, 이하 DSA)과 디지털 시장법(Digital Markets Act, 이하 DMA)이라는 두 가지 법률의 초안을 제안했다. 여기서 주목할 법안은 온라인 플랫폼 사업자에게 그 규제 강도를 높이는 DSA이다.[각주:21] 올해 8월 25일부터 구글, 페이스북, 틱톡, 인스타그램 등 전세계 초대형 온라인 플랫폼과 온라인 검색엔진에 대한 DSA의 적용이 본격화됐다.[각주:22] 콘텐츠의 범람 속에서 손쉬운 공유를 통한 폭발적인 속도로 확대⋅재생산될 수 있는 디지털 서비스에 대한 방지턱인 것이다.[각주:23] DSA는 서비스 규모와 기능에 따라 차별화된 규제 수단을 포함한다. 온라인에서 불법적이거나 잠재적으로 유해한 콘텐츠의 처리제삼자 콘텐츠에 대한 온라인 공급자의 책임, 제삼자 공급자의 심사 의무 및 온라인 이용자의 기본권 보호에 대한 일반원칙 등의 설정이 목적이다.[각주:24]  적용 대상의 빅테크 기업들은 △유해 콘텐츠의 확산 방지 특정 사용자 타겟팅 광고 금지 혹은 제한  규제기관 및 관련 연구원과 일부 내부 데이터 공유 등 유럽연합 내에서 새로운 의무를 준수해야 한다. 따라서 DSA가 궁극적으로 지향하는 바는 이용자들의 기본권 보호와 신뢰할 수 있는 온라인 환경인 것이다. 이를 통해 유럽연합 내 디지털 서비스 산업의 긍정적인 발전을 끌어 내는 것에 있다.[각주:25]

 

[각주:26]">
▲ 온라인 서비스의 의무사항 [각주:27]

 

 

 DSA는 온라인 사업자가 불법적인 콘텐츠를 게시하지 않을 의무도 포함한다. 이때 사업자의 자율적인 정책이나 참여의 권고가 아닌 강제성을 부여한다. 사업자가 DSA에서 정한 의무 사항을 위반한다면 당국에서는 기업의 글로벌 매출액의 최대 6%까지 과징금을 부과할 수 있다. 구글의 모회사 ‘알파벳’은 2023년 3분기 실적 발표에서 분기 매출 766억 9,300만 달러(한화 약 99조원)[각주:28]을 기록했다. 99조의 6%는 5조 9,400억원이다. 천문학적인 과징금은 전 세계에 발을 뻗은 초거대 플랫폼도 결코 간과할 수 없는 금액이다. 더불어 EU는 DSA 미준수가 계속된 사업자를 대상으로 영업정지처분을 내리거나 유럽 시장에서 완전 퇴출까지 명령할 수 있다. 만약 집행위원회가 문제에 심각하게 대응할 필요가 있다는 판단을 내리면 사업자에게 즉각적 반응 또한 요구할 수 있다.

 

 네트워크 법집행법과 유사하게 온라인 플랫폼의 투명성 의무를 부과한다. 온라인 플랫폼 운영에 있어 사후 보고뿐 아니라 정보를 노출하고 배열하는 기술에서 투명성을 추구한다. 사용자에게 특정한 추천 알고리즘만을 노출해서는 안 되며 사용자가 플랫폼에서 주어지는 개별 광고나 정보를 식별할 수 있다는 사실을 추가로 명시해야 한다. 즉, 투명성의 의무를 부과함으로써 온라인 플랫폼이 스스로 사용자의 권리 보호와 규제의 선을 설정하도록 한다. 

 

▲구글 안전센터에 명시된 구글 광고 관리 및 개인 맞춤설정.

 

 

 이처럼 DSA는 사업자에게 가하는 강력한 규제(엄청난 금액의 과징금)를 통해 사업자가 책임감을 가지고 플랫폼을 운영할 수 있게 유도한다. 더 이상 온라인 플랫폼은 단순 정보 유통을 위해 존재하는 수동적 대상이 아니다. DSA는 운영자를 플랫폼의 안전성 확보를 위해 적극적으로 나서야 하는 주체로 바라본 점에서 의의가 있다. 온라인 환경은 사용자만이 만들어 가는 게 아니라 운영자와 함께 만들어가는 것을 사업자에게 인식시켜 준 것이다.

 

 

천 리 길도 한 걸음부터 

 

 

 앞서 이야기한 네트워크 법집행법과 디지털서비스 법이 우리나라 커뮤니티 환경이 추구해야 할 이상향이라고는 할 수 없다. 커뮤니티 환경에 대한 논의는 이제 걸음마를 뗐다고 해도 과언이 아니다. 혐오표현과 표현의 자유를 판단하는 기준도 국제 사회에 공통으로 정립된 바가 없으니, 섣불리 결정을 내릴 수 없는 것은 사실이다.

 

 국내에서도 유해 콘텐츠, 특히 혐오 표현으로 인한 피해를 막으려는 움직임을 보이고 있다. 국내 포털 업체들이 설립한 자율 규제 기구인 한국인터넷자율정책기구(이하 KISO)는 포털 사용자의 권리를 보호하고 건강한 커뮤니티 환경을 조성하기 위해 16개 인터넷기업이 회원사로 가입되어 있다. 국내 대표적 인터넷기업인 네이버와 카카오도 이에 포함되어 있다. 

 

 KISO 이사회의 이인호 의장(정책위원장)은 KISO의 사회적 사명을 이야기한다.[각주:29] 인터넷 공간 속에 ‘표현의 자유’와 ‘인간의 존엄성’ 등의 헌법적 가치가 서로 상충할 경우 올바른 규범인식과 균형의식을 통해 합리적 규제정책을 수립, 실천함으로써 인터넷 자율규제의 모델을 수립하는 것”이 그 사명이며, 이를 바탕으로 4월 ‘혐오표현 자율정책 가이드라인’을 발표했다. 가이드라인에는 혐오표현에 대한 정의부터 작용범위, 회원사와 이용자의 의무와 판단, 조치를 포함한다. KISO는 표현의 자유를 존중하면서도 특정 집단이나 구성원이 혐오 표현으로 인해 차별·배제되는 것을 경계한다. 또한 ‘혐오표현 관련 이용자 인식조사’를 실시함으로써 혐오표현의 개별 사례를 분석하고 그 범위를 확립하고자 한다. 

 

 또한 이용자의 자유가 침해되는 것을 막기 위해 혐오 표현의 정의[각주:30]를 내림으로써 사업자의 자의적 판단으로 의견을 평가하는 일이 없도록 설정했다. 그리고 정보 게제자의 이의제기 권리를 명시함으로써 사업자의 자의적이고 무차별적인 게시물 삭제를 방지하고자 한다. 비록 DSA와 네트워크 법집행법처럼 미준수 시, 사업자에게 가해지는 법적 제재는 없으나, 국내 인터넷 사업자를 대상으로 공통된 가이드라인을 마련한 점에서 진일보했다고 볼 수 있다.

 

 익명 커뮤니티는 오래전부터 일상에 녹아들며 커뮤니티와 현실은 유기적으로 연결된 하나의 세상으로 인식하게 됐다. 대중들은 칼부림 예고글을 보며 단순한 장난이 아닌 현실의 범죄 행위로 이어질 수 있다는 생각을 가지게 된다. 커뮤니티 환경에 대한 인식이 변화한 것에 맞춰 법안과 규제도 변화해야 한다. 

 

 “올해는 허위로 작성된 살인 예고 글이 많았으니, 허위 글 작성 처벌을 강화하는 법안을 만들어야겠다”는 생각은 계속해서 문제의 물레방아를 돌릴 뿐이다.  더이상 자율 규제 기구 또는 자동 시스템에 맡기면 안 된다. 맡겼을 때 해결이 안 된다는 걸 이미 배웠기 때문이다. 국가가 직접 온라인 유해 콘텐츠와 혐오표현을 정의하고 표현의 자유와 사용자의 권리 사이에서 중용을 찾을 수 있는 ‘사업자의 역할’을 규정해야 한다. 

 

 운영자의 문제의식도 중요하다. 당장 운영자에 대한 법적 강제력이 없다고 해서 이를 방치해도 된다는 의미는 아니다. 수많은 의견과, 표현과 생각이 오고 가는 공간에서 운영자는 객관적인 근거를 바탕으로 사용자의 권리를 보호할 수 있는 방안을 찾아야 한다. 

 

 혐오표현의 정확한 정의도, 표현의 자유를 규정하는 것도, 사업자에 책임을 부여하는 정도를 고민하는 것도 모두 막막해 보인다. 그래서 여기까지 왔다. 이제는 우리나라도 해야 한다. 사건에 맞춰 급히 법안을 추진하는 것이 아니라 넓은 시야에서 환경에 대한 근본적인 변화를 추구해야 한다. 급할수록 돌아가자. 개인과 정부, 그리고 사업자까지 함께 처음으로 돌아와 차근차근 기둥부터 세워야 한다. 

 

 


*구글 드라이브를 통해 PDF 판형으로도 만나보실 수 있습니다.

 

https://drive.google.com/file/d/1UCTelQnoSxrDFlmTqK6xtc-6_YX3q60W/view?usp=sharing

 

  1. SBS Biz, “신림역 칼부림 피의자 “남들도 불행하게 만들고 싶었다”, 2023.07.22, 김완진. [본문으로]
  2.  파이낸셜 뉴스, “‘살인 예고글’ 전국서 443건… 경찰 사칭 ‘칼부림’ 예고한 30대도 체포(종합)”, 2023.08.22, 이진혁. [본문으로]
  3. 국내 최대 인터넷 커뮤니티 포털로  2022년 9월 기준 일 방문자 260만, 일 페이지뷰 1억 7천만 회를 기록했다. [본문으로]
  4. 중앙일보, “익명커뮤니티 대구대 게시판에 ‘칼부림 예고’ 20대 검거”, 2023.08.04, 이지영. [본문으로]
  5. 현재는 ‘잘못된 정보 교환 우려’의 운영원칙 위반으로 폐쇄됐다. [본문으로]
  6.  형법 제283조 (협박, 존속협박) ①사람을 협박한 자는 3년 이하의 징역, 500만 원 이하의 벌금, 구류 또는 과료에 처한다.  [본문으로]
  7. 형법 제255조 (예비, 음모) 제250조(살인, 존속살해)와 제253조(위계등에 의한 촉탁살인등)의 죄를 범할 목적으로 예비 또는 음모한 자는 10년 이하의 징역에 처한다. [본문으로]
  8. 경기일보, 오피니언, “[사설] ‘살인예고’ 폭주하는데 처벌 애매, 법 정비 시급하다”, 2023.09.01. [본문으로]
  9.  동아일보, “대전서 ‘살인 예고’ 20대에 ‘위계 공무집행방해’ 혐의 전국 첫 적용”, 2023.08.08, 뉴시스.  [본문으로]
  10.  한겨레, “‘살인예고 글’ 직접 처벌하는 규정 만든다”, 2023.08.09, 전광준.  [본문으로]
  11. 한겨레, “‘살인예고 글’ 직접 처벌하는 규정 만든다”, 2023.08.09, 전광준. [본문으로]
  12.  MBC NEWS, “‘칼부림 예고글’ 초등생 소년재판행.. ‘살인 예고 글 게시’ 173명 검거”, 2023.08.18, 송정훈.  [본문으로]
  13. 아시아경제, “‘살인예고글’ 처벌 규정 만든다더니… 관련 법안은 국회 폐기 수순”, 2023.11.17, 공병선. [본문으로]
  14. 국민의힘 김영식 의원은 “살인예고글을 게시할 경우, 징역 5년 이하 또는 5000만원 이하 벌금을 처하도록 하”는 내용을, 김용판 의원은 “살인예고글을 게시할 경우, 징역 3년 이하 또는 3000만원 이하 벌금을 처하도록 함”을 명시했다. [본문으로]
  15. 주간경향, “법안 통과에 걸리는 평균 기간은”, 2020.08.17, 윤호우. [본문으로]
  16.  한겨레, “에브리타임 ‘혐오 손절’ 아직도 안했어?”, 2021.07.14, 윤김진서.  [본문으로]
  17. Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, NetzDG. [본문으로]
  18. 투명성보고서에는 네트워크 법집행법에 따른 콘텐츠 신고 시스템 조직과 절차, 신고 수, 삭제된 콘텐츠 수에 관한 데이터를 비롯한 플랫폼의 삭제 관행과 정책 등의 일반적인 정보를 포함한다. [본문으로]
  19. 시사인, “가짜 뉴스 규제, 독일식이 해법?”, 2018.10.30, 김인건. [본문으로]
  20. 미디어오늘, “‘표현의 자유’ 독일에서 네트워크집행법이 강화됐다”, 2020.06.27, 이유진. [본문으로]
  21. DMA는 거대 플랫폼 기업의 불공정 행위를 막아 공정한 경쟁관계의 시장 구축이 목적이기에 이번 논의에서는 생략한다.  [본문으로]
  22. 유럽연합 전체 인구의 10% 또는 사용자 4500만명 이상인 초대형 플랫폼들이 이에 해당한다.  [본문으로]
  23. 이재호, 「소비자정책동향 제111호EU 디지털서비스법과 국내 소비자법의 시사점」, 2021, 한국소비자원, 소비자정책동향 제 111호, 25쪽.  [본문으로]
  24. 이병준, 「유럽연합 디지털 서비스법을 통한 플랫폼 규제 - 디지털 서비스법 초안의 주요내용과 입법방향을 중심으로 」, 2021, 한국소비자법학회, 소비자법연구 7호, 181-210 (30쪽). [본문으로]
  25. 이병준, 「유럽연합 디지털 서비스법을 통한 플랫폼 규제 - 디지털 서비스법 초안의 주요내용과 입법방향을 중심으로」, 2021, 한국소비자법학회, 소비자법연구 7호, 181-210 (30쪽). [본문으로]
  26. 박찬경, 「유럽연합 디지털서비스법Digital Services Act): 규제냐, 자율이냐를 넘어서」, 2022, 언론중재위원회, 언론중재 2022 가을호, 67쪽. [본문으로]
  27. 박찬경, 「유럽연합 디지털서비스법Digital Services Act): 규제냐, 자율이냐를 넘어서」, 2022, 언론중재위원회, 언론중재 2022 가을호, 67쪽. [본문으로]
  28. 2023.12.15. 미달러 원 환율 기준. [본문으로]
  29. KISO 홈페이지, 이사회 의장 인사말. [본문으로]
  30. 가이드라인은 혐오표현을 ‘인종·국가·민족·지역·나이·장애·성별·성적지향이 나 종교·직업·질병 등(이하 ‘특정 속성’이라 한다)을 이유로, 특정 집단이나 그 구성원 에 대하여 차별을 정당화·조장·강화하거나 폭력을 선전·선동하는 표현’으로 정의했다. [본문으로]

댓글