Google Cloud анонсировала новые модели встраивания текста в Vertex AI: "text-embedding-004" и "text-multilingual-embedding-002", которые могут генерировать оптимизированные встраивания на основе «типов задач». Это важная разработка для приложений Retrieval Augmented Generation (RAG).

Традиционный семантический поиск по сходству часто не может обеспечить точные результаты в RAG, поскольку вопросы и ответы по своей сути различны. Например, «Почему небо голубое?» и ответ «Рассеяние солнечного света вызывает голубой цвет» имеют разный смысл.

«Типы задач» устраняют этот пробел, позволяя моделям понимать взаимосвязь между запросом и его ответом. Указывая «QUESTION_ANSWERING» для текстов запросов и «RETRIEVAL_DOCUMENT» для текстов ответов, модели могут размещать встраивания ближе друг к другу в пространстве встраивания, что приводит к более точным результатам поиска.

Эти новые модели используют «дистилляцию LLM», при которой меньшая модель обучается на основе большой языковой модели (LLM). Это позволяет моделям встраивания наследовать некоторые возможности рассуждений LLM, повышая качество поиска при одновременном снижении задержки и стоимости.

В заключение можно сказать, что «типы задач» в Vertex AI Embeddings — это важный шаг на пути к повышению точности и эффективности систем RAG. Упрощая семантический поиск, эта функция позволяет разработчикам создавать более интеллектуальные приложения с учетом языка.