Сбер открыл доступ к нейросетевой модели генерации текста для русского языка ruGPT-3.5 13B. Ее дообученная версия лежит в основе сервиса GigaChat. Также банк выложил новую версию модели mGPT 13B - самую большую из семейства многоязычных моделей Сбера, способную генерировать тексты на 61 языке. Обе модели доступны на HuggingFace, и их могут использовать все разработчики. Об этом сообщает пресс-служба Сбера.
Внутри GigaChat находится целый ансамбль моделей - NeONKA (NEural Omnimodal Network with Knowledge-Awareness). Для его создания нужно было выбрать базовую языковую модель, которую потом можно было обучать на инструктивных данных. Russian Generative Pretrained Transformer версии 3.5 с 13 млрд параметров (ruGPT-3.5 13B) - новая версия нейросети ruGPT-3 13B.
Это современная модель генерации текста для русского языка на основе доработанной исследователями Сбера архитектуры GPT-3 от OpenAI. Модель ruGPT-3.5 13B содержит 13 миллиардов параметров и умеет продолжать тексты на русском и английском языках, а также на языках программирования. Длина контекста модели составляет 2048 токенов. Она обучена на текстовом корпусе размером около 1 Тб, в который, помимо уже использованной для обучения ruGPT-3 большой коллекции текстовых данных из открытых источников, вошли, например, часть открытого сета с кодом The Stack от коллаборации исследователей BigCode и корпусы новостных текстов. Финальный чекпоинт модели - это базовый претрейн для дальнейших экспериментов.
Модель также доступна на российской платформе ML Space в хабе предобученных моделей и датасетов DataHub. В обучении модели участвовали команды SberDevices и Sber AI при поддержке Института искусственного интеллекта AIRI.
Также в открытом доступе опубликована многоязычная модель mGPT 13B под открытой лицензией MIT. Версия mGPT 13B содержит 13 млрд параметров и способна продолжать тексты на 61 языке, включая языки стран СНГ и малых народов России. Длина контекста модели составляет 512 токенов. Она была обучена на 600 Гб текстов на разных языках, собранных из очищенных и подготовленных датасетов multilingual C4 и других открытых источников.
Модель может использоваться для генерации текста, решения различных задач в области обработки естественного языка на одном из поддерживаемых языков путем дообучения или в составе ансамблей моделей.
Модель также доступна на российской платформе ML Space в хабе предобученных моделей и датасетов DataHub.
"Сбер как ведущая технологическая компания выступает за открытость технологий и обмен опытом с профессиональным сообществом, ведь любые разработки и исследования имеют ограниченный потенциал в замкнутой среде. Поэтому мы уверены, что публикация обученных моделей подстегнет работу российских исследователей и разработчиков, нуждающихся в сверхмощных языковых моделях, создавать на их базе собственные технологические продукты и решения. Пробуйте, экспериментируйте и обязательно делитесь полученными результатами", - рассказал Андрей Белевцев, старший вице-президент, CTO, руководитель блока "Технологии" Сбербанка.
Последние комментарии
Это не только повышает скорость обслуживания, но и делает его удобным и современным. Оплата по улыбке ускоряет процесс, позволяя клиентам без лишних действий завершить покупку.
Такие схемы опасны, так как жертвы находятся под сильным психологическим давлением и перестают доверять своим близким. Это напоминает нам о важности быть бдительными и не бояться делиться с близкими подозрительными ситуациями.
Снижение цен на новостройки делает их более привлекательными, особенно с учетом цифровизации сделок и программы семейной ипотеки. Надеюсь, что такие меры действительно сделают жилье более доступным для широкого круга граждан.
Координация всех усилий в одном органе поможет более эффективно защищать данные граждан и противостоять мошенникам.
Особенно понравилась часть конференции, где участники могли посоревноваться с ИИ в прогнозировании спроса. Это отличный способ показать, насколько точны и полезны могут быть ИИ-модели.