요약
미국 대법원은 유튜브와 트위터가 '테러 콘텐츠'를 추천하는 알고리즘으로 인한 피해에 대해 책임을 질 수 없다는 판결을 내렸습니다. 법원은 유튜브와 트위터와 같은 플랫폼은 콘텐츠 게시자가 아닌 '단순 중개자'에 해당한다며 플랫폼 사업자들은 제 3자가 올린 허위, 비방 콘텐츠에 대해 법적인 책임을 면제 받았습니다.
의견
이 판결은 특히 알고리즘 책임과 관련하여 디지털 시대에 중요한 선례를 남겼습니다. 이 판결은 소송으로부터 기술 기업을 보호하는 한편, 유해하거나 위험한 콘텐츠를 중재하는 데 있어 기업이 수행해야 할 역할에 대한 의문을 제기합니다. 현재 법에서는 플랫폼을 '중개자'로 간주하고 있지만, 알고리즘이 사용자가 보는 콘텐츠에 적극적인 역할을 하며 잠재적으로 의견과 행동을 형성한다는 것은 분명합니다. 언론의 자유, 잘못된 정보 통제, 기업의 책임 사이에서 균형을 맞추기 위해 제230조를 개정하는 일은 여전히 어려운 과제입니다. 이 논쟁은 인터넷과 디지털 커뮤니케이션의 미래를 정의하는 데 매우 중요합니다.
이번 판결은 기술 기업과 그들이 만든 알고리즘의 힘을 강조합니다. 대법원의 판결은 기술 기업에게 법적 명확성과 절실히 필요한 보안을 제공하지만, 문제가 되는 콘텐츠를 처리하는 데 있어 안일함을 초래할 수도 있습니다. 알고리즘은 중립적인 것이 아니라 인간이 설계한 것으로, 본질적으로 유해한 콘텐츠를 포함한 특정 유형의 콘텐츠를 선호할 수 있습니다. 보호 대상임을 확인함으로써 플랫폼이 기술의 잠재적 오용에 적절히 대처하지 못할 위험이 있습니다.
기술 기업의 권리와 사회적 요구 사이의 균형을 맞추는 것이 중요합니다. 플랫폼이 호스팅하는 모든 콘텐츠에 대해 플랫폼이 전적으로 책임을 져야 한다는 것은 불합리하지만, 이번 판결은 알고리즘이 유해 콘텐츠를 증폭시킬 수 있는 경우 플랫폼이 어느 정도의 책임을 져야 하는지에 대한 의문을 제기합니다.
궁극적으로는 이러한 플랫폼이 단순히 수동적인 정보 전달자가 아니라 온라인 담론의 능동적인 형성자라는 점을 인식하여 플랫폼에 대한 보다 미묘한 이해와 규제가 필요합니다. 법적 면책이 혁신을 억누르는 것을 막을 수는 있지만, 그렇다고 해서 기업이 유해 콘텐츠의 확산을 제한하기 위해 보다 적극적인 조치를 취하지 않아도 된다는 면죄부가 되어서는 안 됩니다. 이는 현재의 법적 체계가 제공하는 것보다 더 포괄적인 접근이 필요한 복잡한 문제입니다. 제230조에 대한 지속적인 개정 요구는 기술의 급속한 발전에 따라 진화하는 이러한 논쟁의 본질을 반영합니다.
링크
https://zdnet.co.kr/view/?no=20230519161007