Ученые из Калифорнийского университета в Беркли разрабатывают инструмент, который использует искусственный интеллект для идентификации "языка ненависти" в социальных сетях, программу, которая, как надеются исследователи, превзойдет людей в выявлении фанатичных комментариев в Twitter, Reddit и других онлайн-платформах.
Scientists at Berkeley’s D-Lab “are working in cooperation with the [Anti-Defamation League] on a ‘scalable detection’ system—the Online Hate Index (OHI)
Ученые из D-Lab Беркли "работают в сотрудничестве с [Антидиффамационной лигой] над системой "масштабируемого обнаружения" - индексом онлайн-ненависти (OHI)
In addition to artificial intelligence, the program will use several different techniques to detect offensive speech online, including “machine learning, natural language processing, and good old human brains.” Researchers aim to have “major social media platforms” one day utilizing the technology to detect “hate speech” and eliminate it, and the users who spread it, from their networks.
В дополнение к искусственному интеллекту программа будет использовать несколько различных методов для обнаружения оскорбительной речи в интернете, включая "машинное обучение, обработку естественного языка и старые добрые человеческие мозги." Исследователи надеются, что ”основные платформы социальных сетей“ в один прекрасный день, используя эту технологию для обнаружения "языка ненависти" и устранения его и пользователей, которые его распространяют, из своих сетей.
One researcher warned against the possibility of inadvertent censorship: “Unless real restraint is exercised, free speech could be compromised by overzealous and self-appointed censors.” The lab is thus “working to minimize bias with proper training and online protocols that prevent operators from discussing codes or comments with each other.”
Один исследователь предостерег от возможности непреднамеренной цензуры “если не будет проявлена реальная сдержанность, свобода слова может быть скомпрометирована чрезмерно усердными и самозваными цензорами.“ Таким образом, лаборатория "работает над минимизацией предвзятости с помощью надлежащего обучения и онлайн-протоколов, которые не позволяют операторам обсуждать коды или комментарии друг с другом.”
https://www.thecollegefix.com/berkeley-scientists-developing-artificial-intelligence-tool-to-combat-hate-speech-on-social-media/