Пятница, 1 августа в 09:51 UTC+3

Статьи с тегом: вредоносный контент

Изображение новости

Австралия расширяет запрет на социальные сети для подростков, включая YouTube, отменяет исключения.

Австралия расширяет запрет на соцсети для подростков, включив в него YouTube, после данных о вредоносном контенте, что может привести к судебным разбирательствам. Защитите своих детей: новое правило призвано ограничить доступ к потенциально опасным онлайн-платформам.

Изображение новости

YouTube все-таки будет включен в список социальных сетей, запрещенных для детей в Австралии.

В Австралии YouTube попадет под ограничения для детей до 16 лет из-за вредоносного контента, что повлечет за собой крупные штрафы для платформы при несоблюдении правил. Новые меры уравняют YouTube с другими соцсетями, такими как TikTok и Facebook, обеспечивая большую безопасность для юных пользователей.

Изображение новости

Новое исследование ставит под сомнение безопасность искусственного интеллекта.

Новое исследование показало, что ИИ может передавать вредные предубеждения и даже "злонамеренные тенденции" через, казалось бы, нейтральные данные, что представляет серьезную угрозу для безопасности и надежности ИИ-систем.

Изображение новости

Расистские видео, созданные с помощью искусственного интеллекта, становятся вирусными в TikTok.

Расистский контент, сгенерированный ИИ Google Veo 3, набирает популярность в TikTok, нарушая правила платформы и демонстрируя уязвимость новых технологий к злоупотреблениям. Требуется немедленная реакция от Google и TikTok для блокировки вредоносного контента и защиты от распространения ненависти.

Изображение новости

Австралийский регулятор и YouTube спорят о запрете социальных сетей для детей до 16 лет.

Австралия может оштрафовать YouTube за недостаточную защиту детей: регулятор настаивает на строгих правилах, несмотря на возражения платформы и поддержку исключения со стороны родителей. Новый закон может стать прецедентом для мирового регулирования социальных сетей и их ответственности за безопасность несовершеннолетних.

Изображение новости

OpenAI обещает большую прозрачность в отношении галлюцинаций моделей и вредоносного контента.

OpenAI повышает прозрачность, публикуя результаты оценки безопасности своих моделей, включая данные о галлюцинациях, вредоносном контенте и устойчивости к взлому. Ознакомьтесь с Safety Evaluations Hub, чтобы быть в курсе последних обновлений и оценить риски, а также узнать больше о GPT-4 и других моделях.

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.