Публикации
2026-02-02 15:59 Авторский телеграм-канал Магазин 4.0

Можно ли создать суверенный ИИ?*

Тот, который нам всю правду расскажет и ничего заморского, чуждого не примешает нам в ответы.

✅ Суверенный интернет, суверенный мессенджер, суверенный поисковик и т.д. и всё вроде удаётся сделать в той или иной мере.

🔴 Но с ИИ нас ждёт феерический провал.

*(текст длинный, если не нужны нюансы идеи, то используйте ИИ-пересказ от Telegram - это две стрелки, направленные друг на друга)

И вот в чём дело, постараюсь объяснить просто

Если мы захотим сделать ИИ-дурачка, которого будем учить только на нужных нам знаниях то, нас, конечно, ждёт успех.

Но, если мы захотим сделать по-настоящему умный ИИ, то нам понадобится ему скормить все доступные оцифрованные знания мира, а там, к сожалению, есть много всего.

К слову, сейчас недостаток данных для обучения (всё уже что могли скормили ИИ) является причиной некоторого замедления в совершенствовании ИИ. Разработчики никак не могут дать ему больше данных, чтобы сделать очередной рывок в интеллекте из-за того, что их просто нет -качественных, новых, разнообразных данных становится меньше, публичный интернет исчерпан как источник роста.

Дальнейший прогресс зависит от создания новых, которые создаются специально для обучения ИИ – это не совсем наша жизнь, про которую мы с вами говорим – это так называемы синтетические данные:

• симуляции,

• агентные среды,

• обучение на действиях, а не текстах.

❗️ Невозможно изолировать интеллект от реальности, интеллект — это не «чьё-то», интеллект — это статистика мира!

Если мы в Росси ставим целью сделать ИИ сопоставимый с человеком, то и учить ИИ придётся и плохому, и хорошему, чтобы он мог это хотя бы различать у себя в железной голове.

А если мы будем его учить только «хорошему», то мы получим своего рода таблицу умножения, где по какой-то причине будут пропущены в, к примеру все умножения на 6. Можно ли пользоваться такой таблицей умножения? Конечно, можно только результат будет далёк от правильного.

Если системно исключать:

• конфликтные точки зрения,

• неприятные исторические факты,

• альтернативные интерпретации,

модель не просто будет «ошибаеться» —

она потеряет способность различать, где:

• факт,

• интерпретация,

• пропаганда,

• манипуляция.

Я вижу из общения с нашими ИИ-моделями GigaChat, Алиса AI, что они уже используют очень схожий набор данных для обучения, что и другие зарубежные модели, а в итоге будут вынуждены почти весь его скопировать, чтобы вывести свои модели на сопоставимый уровень

❓А где может проходить линия суверинизации моделей?

В контроле выдачи, т.е. ИИ-модель может выдать любой ответ, но системными промптами можно контролировать то, что выдаёт ИИ и тем самым это могут быть "нужные" ответы.

ИИ — это обобщающая модель мира, а не сервис. Сервис легко прикрутить, зажать, а с ИИ такой трюк не пройдёт – ИИ знает или должен знать всё.

Как сделать послушный ИИ, суверенный ИИ — это не:

• контроль обучения ❌

а:

• контроль контекста применения и выдачи ✅

То есть:

• системные промпты,

• policy-слои,

• фильтры,

• разные «роли» одного и того же интеллекта

❗️ И так важно понять, что

«суверенный ИИ» ≠ «ограниченный ИИ»

«цензурированный вывод» ≠ «ограниченное мышление»,

поэтому нас ждёт провал, если мы неправильно понимаем, где проходит суверенность ИИ. Суверенным может быть не интеллект,

а режим его использования.

Ну, а тут уже есть некоторые нюансы, но это не публичном поле.

❗️Пусть ИИ будет умным, а мы разумными.