Статьи с тегом: вредоносный контент

Австралия расширяет запрет на социальные сети для подростков, включая YouTube, отменяет исключения.
Австралия расширяет запрет на соцсети для подростков, включив в него YouTube, после данных о вредоносном контенте, что может привести к судебным разбирательствам. Защитите своих детей: новое правило призвано ограничить доступ к потенциально опасным онлайн-платформам.

YouTube все-таки будет включен в список социальных сетей, запрещенных для детей в Австралии.
В Австралии YouTube попадет под ограничения для детей до 16 лет из-за вредоносного контента, что повлечет за собой крупные штрафы для платформы при несоблюдении правил. Новые меры уравняют YouTube с другими соцсетями, такими как TikTok и Facebook, обеспечивая большую безопасность для юных пользователей.

Новое исследование ставит под сомнение безопасность искусственного интеллекта.
Новое исследование показало, что ИИ может передавать вредные предубеждения и даже "злонамеренные тенденции" через, казалось бы, нейтральные данные, что представляет серьезную угрозу для безопасности и надежности ИИ-систем.

Расистские видео, созданные с помощью искусственного интеллекта, становятся вирусными в TikTok.
Расистский контент, сгенерированный ИИ Google Veo 3, набирает популярность в TikTok, нарушая правила платформы и демонстрируя уязвимость новых технологий к злоупотреблениям. Требуется немедленная реакция от Google и TikTok для блокировки вредоносного контента и защиты от распространения ненависти.

Австралийский регулятор и YouTube спорят о запрете социальных сетей для детей до 16 лет.
Австралия может оштрафовать YouTube за недостаточную защиту детей: регулятор настаивает на строгих правилах, несмотря на возражения платформы и поддержку исключения со стороны родителей. Новый закон может стать прецедентом для мирового регулирования социальных сетей и их ответственности за безопасность несовершеннолетних.

OpenAI обещает большую прозрачность в отношении галлюцинаций моделей и вредоносного контента.
OpenAI повышает прозрачность, публикуя результаты оценки безопасности своих моделей, включая данные о галлюцинациях, вредоносном контенте и устойчивости к взлому. Ознакомьтесь с Safety Evaluations Hub, чтобы быть в курсе последних обновлений и оценить риски, а также узнать больше о GPT-4 и других моделях.