🌎 Коллеги @budni_manipulyatora рассказали, что Google DeepMind разработала ИИ-систему Search-Augmented Factuality Evaluator (SAFE), предназначенную для фактчекинга результатов больших языковых моделей (LLM).

Правда, как это обычно бывает с масштабными системами, связанными с доступом к информации, есть нюансы.

В целом речь идёт о системах вроде Chat-GPT и ему подобных: дескать, LLM могут писать статьи, отвечать на вопросы и даже решать математические задачи. Но их постоянно надо проверять — теперь очень пристрастный инструмент от Google готов сделать это за вас.

Всё это подаётся под предлогом борьбы с фейками и дезинформацией. Но совершенно ясно, что на деле это инструмент для борьбы с ненужной информацией.

SAFE как будто автоматически проверяет правильность ответов LLM и выявляет неточности. При этом основным методом фактчекинга их результатов заключается в поиске подтверждающих источников в Google. Круг замкнулся.

🔻В западных странах последнее время серьёзно взялись за отслеживание и регулирование информации, которая транслируется в общество. С этой целью не только создаются специальные инструменты и механизмы, но также подгоняется и законодательство, которое стремится не только унифицировать представляемые данные, но и оформить продающую систему: за определённые связи и деньги можно стать достоверным и одобряемым источником.

#медиатехнологии #глобализм
@pezdicide никакой химии — только факты
Please open Telegram to view this post
VIEW IN TELEGRAM
The Best Dell Monitor for Your Needs