Google объявил о новых шагах в области повышения доступности ИИ для всех предприятий, представив свою самую быструю на сегодняшний день модель Gemini 1.5 Flash. Эта модель оптимизирована для высокопроизводительных и высокочастотных задач в больших масштабах, и такие компании, как Jasper.ai, уже используют ее для улучшения качества обслуживания пользователей.
Однако видение Google выходит за рамки простого предоставления отличных моделей. Компания создает целостную экосистему, которая упрощает доступ, оценку и развертывание этих моделей в больших масштабах. Вот некоторые ключевые обновления:
* **Расширение Model Garden:** Включение моделей с открытым исходным кодом, таких как Llama 3.1 от Meta и новейшие модели от Mistral AI, доступных в виде полностью управляемой услуги «Модель как услуга», предоставляет пользователям больше возможностей для выбора оптимального варианта для своих нужд.
* **Преодоление языковых барьеров:** Gemini 1.5 Flash и Gemini 1.5 Pro теперь могут понимать и отвечать на более чем 100 языках, что упрощает взаимодействие с пользователями по всему миру на их родных языках.
* **Предсказуемая производительность:** Общедоступность Provisioned Throughput в Vertex AI в сочетании с соглашением об уровне обслуживания (SLA) с гарантией бесперебойной работы 99,5% обеспечивает надежность и производительность.
* **Масштабирование ИИ, а не затрат:** Улучшения в Gemini 1.5 Flash позволяют сократить затраты на ввод до 85%, а затраты на вывод — до 80%. Такие функции, как кэширование контекста, дополнительно оптимизируют затраты на обработку запросов с большим контекстом.
Эти усовершенствования демонстрируют стремление Google к созданию экосистемы ИИ, которая делает ИИ корпоративного уровня доступным для всех.