Nvidia представила систему для создания собственных ИИ

Во время вчерашнего доклада Nvidia в рамках GTC, генеральный директор компании Дженсен Хуанг объявил о предстоящем выпуске Nvidia AI Foundations — набора фреймворков большой языковой модели (LLM), призванных оказать значительное влияние на различные отрасли.

Хуанг настолько уверен в потенциале AI Foundations, что сравнивает его с "TSMC для кастомных больших языковых моделей". Это уникальное сравнение идет рука об руку с его верой в то, что у ИИ уже был свой "момент iPhone" и дальше развитие пойдет только в гору.

Пакет AI Foundations включает в себя Picasso и BioNeMo — они предназначены для средств массовой информации и медицины соответственно. Кроме того, он включает NeMo, платформу для компаний, которые хотят включить большие языковые модели в свои рабочие процессы.

NeMo направлена на создание "кастомного языка и генерирующих моделей формата текст-в-текст" что позволит формировать то, что компания называет "интеллектуальными приложениями". С помощью метода под названием P-Tuning компании могут обучать свои языковые модели для создания контента для конкретных брендов, создания персонализированных электронных писем и даже резюмирования финансовых документов.

Языковые модели NeMo поделены на несколько версий: с 8 миллиардами, 43 миллиардами и 530 миллиардами параметров. Это значит, что компании смогут подбирать подходящий для своих целей уровень комплексности, так как далеко не все задачи требуют модели с сотнями миллиардов параметров. Для сравнения, исходный GPT-3 Chat GPT полагается на 175 миллиардов параметров, в то время как GPT-4, как предполагается, имеет около 1 триллиона параметров.

Хотя NeMo не может быть прямым конкурентом ChatGPT, ясно, что в качестве основы для разработки больших языковых моделей он окажет значительное влияние на множество отраслей.

Больше статей на Shazoo
Тэги:
Источники:
Читать комментарии на сайте