Нашёл хорошую статью про 5 способов разворачивания генеративного ИИ в компании. Меня часто спрашивают о вопросах безопасности при разворачивании ИИ. Куда утекают данные, как защитить от потери чувствительных данных, в статье довольно подробно разбираются все вопросы.
Статья непростая для чтения бизнесом, но вы можете её использовать для своего IT-департамента, чтобы они быстро вошли в курс дела, нашли ответ, поэтому просто перешлите им этот пост.
Вот краткое изложение.
Пять способов развертывания собственной большой языковой модели (LLM):
Вот эта статья
ТГ-канал https://t.me/agatov_tech | автор http://agatov.pro/ (выступления, модерация, консалтинг)
Статья непростая для чтения бизнесом, но вы можете её использовать для своего IT-департамента, чтобы они быстро вошли в курс дела, нашли ответ, поэтому просто перешлите им этот пост.
Вот краткое изложение.
Пять способов развертывания собственной большой языковой модели (LLM):
- Использование публичных LLM: Применение бота вроде ChatGPT с защищенным шлюзом, чтобы чувствительная информация не загружалась, и возможность использования частной облачной версии для повышения безопасности.
- Векторные базы данных и RAG: Внедрение технологии RAG с использованием векторных баз данных для фильтрации и извлечения соответствующей информации перед отправкой запроса в LLM, что оптимизирует запрос и результат.
- Локальные модели с открытым кодом: Использование платформ, поддерживающих локальное развертывание LLM, чтобы предотвратить утечку данных, и применение локальных векторных баз данных для подачи информации в LLM.
- Тонкая настройка: Тонкая настройка открытых моделей с собственными данными для их настройки под конкретные нужды организации, учитывая вопросы доверия и безопасности данных.
- Создание LLM с нуля: Этот вариант обычно непрактичен для большинства из-за огромных размеров и стоимости, связанных с обучением передовых LLM, таких как GPT-3 и GPT-4 OpenAI.
Вот эта статья
ТГ-канал https://t.me/agatov_tech | автор http://agatov.pro/ (выступления, модерация, консалтинг)