Дело о регулировании конструкции платформы

Летом В 2017 году трое подростков из Висконсина погибли в автокатастрофе на высокой скорости. В момент столкновения мальчики зафиксировали свою скорость с помощью фильтра скорости Snapchat — 123 мили в час. Это был не первый подобный инцидент: тот же фильтр был связан с несколькими другими сбоями в период с 2015 по 2017 год.

Родители подростков из Висконсина подали в суд на Snapchat, утверждая, что их продукт, который награждает «трофеями, нашивками и общественным признанием» пользователей, превысивших 100 миль в час, был небрежно разработан для поощрения опасного вождения на высокой скорости. Первоначально суд низшей инстанции постановил, что раздел 230 Закона о приличии в коммуникациях освобождает Snapchat от ответственности, заявив, что приложение не несет ответственности за сторонний контент, созданный людьми, использующими его Speed ​​​​Filter. Но в 2021 году Девятый округ отменил решение суда низшей инстанции.

Платформы в значительной степени защищены от ответственности за этот тип контента в соответствии с Разделом 230. Но в этом важном случае –Лемон В. щелчок– The New Circuit провела критическое различие между вредным дизайном продукта платформы и размещением на ней вредоносного стороннего контента. Аргумент заключался не в том, что Snapchat создал или разместил вредоносный контент, а в том, что он небрежно разработал функцию Speed ​​​​Filter, которая поощряла опасное поведение. Девятый округ правильно установил, что суд низшей инстанции допустил ошибку, применив Раздел 230 в качестве защиты. Это был неправильный юридический инструмент. Вместо этого суд обратил внимание на небрежный дизайн Speed ​​​​Filter в Snapchat — обычное правонарушение, связанное с ответственностью за качество продукции.

К сожалению, за прошедшие годы и совсем недавно в Верховном суде США в прошлом месяце устные аргументы в пользу Гонсалес против Google, суды не понимали и не различали вредоносное содержание и вредоносный дизайн. Судьи, рассматривающие эти дела, и законодатели, работающие над сдерживанием онлайн-злоупотреблений и вредоносной деятельности, должны помнить об этом различии и сосредоточить внимание на небрежном дизайне продуктов платформ, а не отвлекаться на общие заявления о неприкосновенности Раздела 230 в отношении вредоносного контента.

ЧИТАТЬ  Судебное преследование за покушение на убийство люстрой в Марклеберге: «Здесь больше нет»

В сердце Гонсалес заключается в том, защищает ли Раздел 230 YouTube не только тогда, когда он размещает сторонний контент, но и когда он дает целевые рекомендации о том, что пользователям следует смотреть. Адвокат Гонсалеса утверждал, что YouTube не должен получать иммунитет в соответствии с разделом 230 для рекомендации видео, заявив, что акт курирования и рекомендации того, что показывает сторонний материал, сам по себе является созданием контента. Юрист Google ответил, что его алгоритм рекомендаций нейтрален и одинаково относится ко всему контенту, который он рекомендует пользователям. Но эти аргументы не попадают в цель. Нет необходимости ссылаться на Раздел 230 вообще, чтобы предотвратить рассмотрение убытков в этом случае. Дело не в том, что функция распознавания YouTube создала новый контент, а в том, что «нейтральные» алгоритмы распознавания небрежно разработаны, чтобы не различать, скажем, видео ИГИЛ и видео с кошками. Фактически, рекомендации активно продвигают вредный и опасный контент.

Функции рекомендаций, такие как «Смотреть дальше» и «Рекомендуется для вас» на YouTube, которые лежат в основе Гонсалес– вносить материальный вклад в ущерб, поскольку они отдают предпочтение скандальным и сенсационным материалам, а также поощряют и вознаграждают пользователей за создание такого контента. YouTube разработал свои функции рекомендаций, чтобы повысить вовлеченность пользователей и доход от рекламы. Создатели этой системы должны были знать, что она будет поощрять и поощрять вредное поведение.

Хотя большинство судов приняли широкое толкование раздела 230, которое выходит за рамки ограждения платформ от ответственности за опасный сторонний контент, некоторые судьи пошли дальше и начинают применять более строгие меры к небрежному дизайну, влекущему за собой ответственность за качество продукции. В 2014 году, например, Omegle, служба видеочата, которая объединяет случайных пользователей, сопоставила 11-летнюю девочку с 30-летним мужчиной, который собирался жениться и годами подвергал ее сексуальному насилию. В 2022 году судья, рассматривающий это дело, АМ v. Омегл, обнаружил, что Раздел 230 в целом защищает фактические материалы, отправленные обеими сторонами. Но платформа по-прежнему несла ответственность за свой небрежный выбор дизайна, связывающий сексуальных хищников с несовершеннолетними жертвами. На прошлой неделе аналогичное дело было возбуждено против Grindr. 19-летний парень из Канады подает в суд на приложение, потому что оно связало его со взрослыми мужчинами, которые насиловали его четыре дня, когда он был несовершеннолетним. Опять же, в иске утверждается, что Grindr небрежно относился к процессу проверки возраста и активно стремился привлечь несовершеннолетних пользователей к приложению, ориентируя свою рекламу TikTok на несовершеннолетних. Эти случаи, как Лемон В. щелчокутверждают важность сосредоточения внимания на конструктивных особенностях вредного продукта, а не на вредном содержании.

ЧИТАТЬ  В отношении главы авторынка и чиновника администрации возбуждено уголовное дело

Эти случаи создали многообещающий прецедент того, как сделать платформы более безопасными. Когда попытки обуздать онлайн-злоупотребления сосредотачиваются на стороннем контенте и Разделе 230, они увязают в сложных вопросах свободы слова, которые затрудняют значимые изменения. Но если стороны, судьи и регулирующие органы проигнорируют эти вопросы содержания и вместо этого сосредоточатся на ответственности за качество продукции, они доберутся до корня проблемы. Привлечение платформ к ответственности за небрежный выбор дизайна, который поощряет и монетизирует создание и распространение вредоносного контента, является ключом к устранению многих опасностей, которые сохраняются в Интернете.


WIRED Мнение публикует статьи от внешних авторов, представляющих широкий спектр точек зрения. Читать больше мнений здесьи ознакомьтесь с нашими инструкциями по отправке здесь. Отправить статью мнение@wired.com.

Source