페이크북인가? 페이스북인가? … 미대선 결과 발맞춰 태세전환
페이크북인가? 페이스북인가? … 미대선 결과 발맞춰 태세전환
  • 김신강
  • 승인 2020.11.13 01:07
  • 댓글 0
이 기사를 공유합니다

페이스북, 관리규정 엄격히 옥죄다

커뮤니티 규정 집행 보고…혐오 발언 90%까지 미리 잡는다




[2020년 11월 13일] - 넷플릭스의 다큐멘터리 ‘소셜 딜레마’는 페이스북에 퍼지는 가짜뉴스의 문제점에 대해 신랄하게 비판해 큰 반향을 얻었다. ‘좋아요’를 통해 유사한 어조나 내용의 콘텐츠로 알고리즘이 작동해 폭발적인 전파력을 가지고 집단행동까지 유발한다는 것이다. 해당 다큐멘터리는 선거를 유리하게 끌고 가고자 하는 세력들에 이용되어 유권자들의 올바른 판단을 흐리고, 사회 갈등을 조장한다고 이야기한다.

페이스북은 이에 대해 ‘선정주의’라 즉각 반박하고 넷플릭스가 정치적 양극화와 같은 복잡한 이슈에 소셜미디어 플랫폼을 희생양으로 삼았다고 주장했다. 사실 페이스북은 ‘페이크북’이라는 오명을 쓸 정도로 가짜뉴스의 온상지로 지목받은 이후 자체적으로 자정작용을 위해 막대한 인력을 쏟아붓고 있다. 현재 커뮤니티의 안전 및 보안을 지원하는 업무에 투입되는 페이스북의 인력은 3만 5천 명에 달한다.

한창 비판받던 2017년에 비해 무려 3배를 더 늘렸다.

과연 효과는 얼마나 있을까? 회사는 12일 미디어 세션을 갖고 커뮤니티 규정 집행에 관해 보고를 진행했다. 온라인으로 진행한 가운데 지난 2019년 4분기부터 올해 2분기까지 커뮤니티의 콘텐츠 관리에 대한 페이스북과 인스타그램의 규정과 이를 집행한 성과에 대한 브리핑을 골자로 했다.


미국 대선을 비롯해 조지 플로이드 사건, 혐오 발언 및 가짜 뉴스의 증가 등 정치적으로 민감한 이슈가 늘어남에 따라 페이스북의 대처 현황을 알리고자 하는 목적도 있다. 현시대의 심각성을 충분히 인지하고 있으며, 이를 해결하기 위해 큰 노력을 한다는 것을 알려 분위기를 환기하고자 하는 것으로 보인다. 시기가 시기인 만큼 그간의 날카로운 여론에 자세를 낮추는 모양새다.

5가지 카테고리. 안전에 비중 높여

회사 측은 크게 5가지로 분류했다. ▲폭력 및 범죄 행위 ▲안전 ▲불쾌한 콘텐츠 ▲무결성 및 진실성 ▲지적 재산권이다. 번역체로 되어 있어 다소 의미 전달이 불명확하지만, 위험인물이나 단체, 자살 및 자해, 성 착취나 따돌림, 괴롭힘, 혐오 발언, 가짜 뉴스, 저작권 등에 대해 엄격히 점검하고 차단, 관리하도록 한다는 것.

콘텐츠 정책팀 유동연 매니저는 “커뮤니티 규정은 철저히 안전에 초점이 맞춰져 있다”며 “사용자가 잠재적 위협을 받지 않고 안심하고 커뮤니티 활동을 할 수 있도록 돕는 것이 페이스북이 진행하는 커뮤니티 규정 집행의 가장 중요한 방향”이라고 밝혔다.

먼저 정치, 사회, 커뮤니티의 새로운 트렌드를 반영해 오래된 정책의 개정 필요성을 확인한다. 개정이 필요한 규정들의 우선순위를 부여하고, 사내의 다양한 담당 팀들 간의 논의를 거친 후 외부 전문가 그룹과 논의한다. 마지막으로 워킹그룹의 검토를 거쳐 여러 개의 개정 옵션을 만들고 그중에 가장 많은 추천을 받은 안을 최종 개정안으로 선정한다.

과거 여성의 신체를 드러내는 콘텐츠는 무조건적 삭제 대상이 되었으나 최근에는 신체의 긍정성을 강조하기 위해 마른 몸이 아닌 건강한 몸이 중요하다는 메시지를 전달하기 위해 자신의 나체를 활용하는 경우 이를 허용하는 쪽으로 바뀌고 있다. 특정 신체 부위가 노출되지 않는 선에서 긍정적인 메시지를 허용하는 것은 페이스북이 사회 인식의 변화를 받아들인 개정의 한 예다.


공익에 관한 콘텐츠 노출에 대한 비교적 너그러운 정책을 갖고 있었으나, 조지 플로이드의 사망 당시를 촬영했던 17세 소녀의 사진 콘텐츠는 그녀가 공인에 준하는 인지도를 갖게 되었을 지라 해도 본인의 의사에 반해 얼굴이 공개된 것은 폭력이 될 수 있다고 판단, 삭제하는 쪽으로 바뀌었다.

홍콩 시위 등 경찰의 무력 진압 장면은 폭력적 이미지라 기존에는 삭제 대상 혹은 청소년 열람 불가 콘텐츠에 해당했으나, 사회적인 인식과 경각심이 높아지고 청소년들의 정치적인 자각 역시 높아졌다고 판단, 사전에 폭력적 이미지라고 주의는 주되 청소년이나 미성년자도 열람할 수 있도록 열어주는 쪽으로 바뀌었다. 이는 홍콩 시위가 세계적인 인권 문제로 부상하면서 페이스북을 향해 침묵하지 말라는 네티즌들의 집단적인 목소리가 정책 변화를 끌어낸 대표적인 예라 할 수 있다.

커뮤니티 운영 인력 3만 5천 명 중 무려 1만 5천 명이 커뮤니티에서 신고된 페이스북과 인스타그램의 콘텐츠를 리뷰하는 인력이다. 이 인력은 365일 24/7 분담하여 풀 타임 상시지원하며, 한국어를 포함해 50개 이상의 언어로 지원한다. 실제 이용자 신고 접수는 하루에 1백만 건을 넘기기 때문에, 인력에 대한 한계는 지속적인 AI 투자로 보완하고 있다.

철저한 개인화 … 피해자 입장으로 접근

노력은 조금씩 가시적 성과로 나타나고 있다. 혐오 발언에 대한 페이스북의 사전 감지율은 올해 1분기 89%에서 2분기 95%로 증가했다. 실제로 조처를 한 콘텐츠의 수도 960만 건에서 2,250만 건으로 2배 이상 뛰었다. 이는 일부 자동화 기술을 스페인어, 아랍어, 인도네시아어까지 포함할 수 있도록 확대한 데 기인한 바가 크다.

인스타그램은 혐오 발언 감지율이 1분기 45%에 불과하던 것이 2분기 84%로 껑충 뛰었다. 조처를 한 콘텐츠의 양은 80만 8천 건에서 330만 건으로 4배 이상 늘었다. 이 역시 언어의 사전 감지 기술의 발전에 따른 것이라고 페이스북은 설명했다. 집행은 단순히 선정적이고 폭력적인 콘텐츠를 무조건 삭제하는 것이 능사가 아니라고 말한다.


사회적 인식 변화에 맞추어 신중하게 집행함을 강조한다. 폭력적인 이미지 자체가 보여주는 모습 이면의 의미까지 파악하려는 노력, 사상에 대한 비판은 자유롭게 허용하되 그 사상을 가진 사람을 비판하는 것은 엄격하게 관리하려는 노력 역시 인상적이다. 이를테면 기독교가 싫다고 말하는 것은 삭제 대상이 아니지만, 기독교인에 대한 비난은 삭제 대상이 된다. 일본의 정책이나 행위는 마음껏 비판할 수 있지만, ‘쪽바리’라고 말하면 삭제 대상이 된다.

신체에 대한 긍정적인, 혹은 중립적인 묘사를 한 사진이라 하더라도 당사자가 신고하면 삭제 대상이 되는 것도 철저히 당사자, 혹은 개인 중심의 정책을 펴겠다는 의중이 엿보인다. 카페에서 음료수를 마시고 있는 평범한 사진을 올려놓고 ‘예쁜 내 동생’이라고 하는 콘텐츠가 올라왔다고 하자. 선정적일 것도, 자극적일 것도 없어 보이는 이 사진을 본 그 ‘예쁜 내 동생’이 어떤 이유에서든 불쾌감을 느끼고 신고하면 즉시 삭제의 대상이 된다.

물론 사진이나 영상에 대한 대처는 어디까지나 사후 대처이기 때문에 생길 피해를 근본적으로 막을 수는 없다. 하지만 지속해서 높아지는 사전 감지율은 어느 정도 자정 작용에 기여할 수 있을 듯하다. 초대형 커뮤니티로서 페이스북은 이용자의 행태에 따라 공격의 대상이 될 수밖에 없는 운명을 하고 있다. 고민도 크고, 돈도 많이 들 것이다. 그래서 이런 노력은 사실 평가받고 인정받아야 할 부분이 분명 있다. 자정 작용과 검열의 위태로운 줄타기 사이를 계속할 수밖에 없는 모든 건강한 커뮤니티의 건투를 빌고 싶다.


By 김신강 에디터 Shinkang.kim@weeklypost.kr
〈저작권자ⓒ 위클리포스트, 무단전재 및 재배포 금지〉


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.