Тот, который нам всю правду расскажет и ничего заморского, чуждого не примешает нам в ответы.
✅ Суверенный интернет, суверенный мессенджер, суверенный поисковик и т.д. и всё вроде удаётся сделать в той или иной мере.
🔴 Но с ИИ нас ждёт феерический провал.
*(текст длинный, если не нужны нюансы идеи, то используйте ИИ-пересказ от Telegram - это две стрелки, направленные друг на друга)
И вот в чём дело, постараюсь объяснить просто
Если мы захотим сделать ИИ-дурачка, которого будем учить только на нужных нам знаниях то, нас, конечно, ждёт успех.
Но, если мы захотим сделать по-настоящему умный ИИ, то нам понадобится ему скормить все доступные оцифрованные знания мира, а там, к сожалению, есть много всего.
К слову, сейчас недостаток данных для обучения (всё уже что могли скормили ИИ) является причиной некоторого замедления в совершенствовании ИИ. Разработчики никак не могут дать ему больше данных, чтобы сделать очередной рывок в интеллекте из-за того, что их просто нет -качественных, новых, разнообразных данных становится меньше, публичный интернет исчерпан как источник роста.
Дальнейший прогресс зависит от создания новых, которые создаются специально для обучения ИИ – это не совсем наша жизнь, про которую мы с вами говорим – это так называемы синтетические данные:
• симуляции,
• агентные среды,
• обучение на действиях, а не текстах.
❗️ Невозможно изолировать интеллект от реальности, интеллект — это не «чьё-то», интеллект — это статистика мира!
Если мы в Росси ставим целью сделать ИИ сопоставимый с человеком, то и учить ИИ придётся и плохому, и хорошему, чтобы он мог это хотя бы различать у себя в железной голове.
А если мы будем его учить только «хорошему», то мы получим своего рода таблицу умножения, где по какой-то причине будут пропущены в, к примеру все умножения на 6. Можно ли пользоваться такой таблицей умножения? Конечно, можно только результат будет далёк от правильного.
Если системно исключать:
• конфликтные точки зрения,
• неприятные исторические факты,
• альтернативные интерпретации,
модель не просто будет «ошибаеться» —
она потеряет способность различать, где:
• факт,
• интерпретация,
• пропаганда,
• манипуляция.
Я вижу из общения с нашими ИИ-моделями GigaChat, Алиса AI, что они уже используют очень схожий набор данных для обучения, что и другие зарубежные модели, а в итоге будут вынуждены почти весь его скопировать, чтобы вывести свои модели на сопоставимый уровень
❓А где может проходить линия суверинизации моделей?
В контроле выдачи, т.е. ИИ-модель может выдать любой ответ, но системными промптами можно контролировать то, что выдаёт ИИ и тем самым это могут быть "нужные" ответы.
ИИ — это обобщающая модель мира, а не сервис. Сервис легко прикрутить, зажать, а с ИИ такой трюк не пройдёт – ИИ знает или должен знать всё.