Поводом к удалению стало выявление использования расистских и женоненавистнических терминов в метках, характеризующих изображённые на картинках объекты, а также наличия образов, которые воспринимались как оскорбительные...
Однако в документе, на который ссылается MIT, названы и более серьёзные проблемы с такими коллекциями: технологии компьютерного зрения можно использовать для разработки систем распознавания лиц, для поиска представителей запрещённых почему-либо групп населения; нейросеть для генерации изображений может восстановить оригинал по анонимизированным данным.
Причиной появления недопустимых слов было использование автоматизированного процесса, использующего при классификации семантические связи из лексической базы данных английского языка WordNet, созданной в 1980-е годы в Принстонском университете. Так как вручную проверить наличие оскорбительной лексики в 80 млн мелких картинок не представляется возможным, было принято решение полностью закрыть доступ к БД. MIT также призвал других исследователей прекратить использование данной коллекции и удалить её копии. Аналогичные проблемы наблюдаются и в крупнейшей аннотированной базе изображений ImageNet, в которой также используются привязки из WordNet.
https://www.opennet.ru/opennews/art.shtml?num=53277