AI

SERP API от Bright Data в Azure ИИ Foundry для потоков подсказок, основанных на поиске

Узнайте, как объединить SERP API от Bright Data и Azure ИИ Foundry для поиска и анализа новостей в режиме реального времени в мощных потоках оперативной информации, дополненных поиском.
3 мин. чтения
Bright Data's SERP API with Azure AI Foundry blog image

В этой статье вы узнаете:

  • Что такое Azure ИИ Foundry и что он предлагает.
  • Почему интеграция с SERP API компании Bright Data в Azure ИИ Foundry является выигрышной стратегией.
  • Как построить реальный оперативный поток ИИ в Azure, подключившись к SERP API.

Давайте погрузимся!

Что такое Azure ИИ Foundry?

Azure ИИ Foundry – это унифицированная платформа, которая предоставляет набор инструментов и услуг для создания, развертывания и управления приложениями, агентами и потоками ИИ. Другими словами, она выступает в роли “фабрики ИИ”, стандартизируя процесс создания систем ИИ.

Его главная цель – помочь вам пройти путь от концепции до производства. Это достигается путем предоставления доступа к широкому спектру моделей и возможностей от таких поставщиков ИИ, как Azure OpenAI, Meta и Mistral, а также инструментов для разработки, развертывания и непрерывного мониторинга.

Зачем интегрировать SERP API от Bright Data в Azure ИИ Foundry

В Azure ИИ Foundry представлен длинный список LLM, но независимо от того, какого из них вы выберете, их знания статичны. Например, LLM не знает о сегодняшних биржевых новостях, спортивных результатах прошлой ночи и т. д. Это может привести к “несвежим” или “галлюцинированным” ответам.

Чтобы преодолеть это ограничение, можно построить систему, которая будет “заземлять” LLM данными из Интернета в режиме реального времени. Такой подход особенно распространен в рабочих процессах RAG(Retrieval-Augmented Generation), где LLM получает внешнюю информацию перед генерацией ответа, что гарантирует, что его вывод основан на текущих фактах.

ИИ Azure поставляется со встроенным инструментом обоснования, но он ограничен Bing в качестве источника данных, что не всегда идеально. Более профессиональная и гибкая альтернатива – SERP API от Bright Data!

SERP API позволяет программно выполнять поисковые запросы в поисковых системах и получать полный контент SERP, обеспечивая вас надежным источником свежих, проверяемых данных, которые можно легко интегрировать в агентов ИИ и рабочие процессы LLM. Ознакомьтесь со всеми его возможностями в официальной документации.

В Azure ИИ Foundry интеграция API сторонних разработчиков может быть реализована как в агентах, так и в потоках. Здесь мы сосредоточимся на потоках подсказок, которые особенно хорошо подходят для сценариев RAG.

Как получить контекст веб-поиска в потоке подсказок Azure ИИ с помощью SERP API

В этом руководстве вы увидите, как интегрировать SERP API от Bright Data в поток ИИ Azure в качестве части потока подсказок для анализа новостей. Этот рабочий процесс состоит из четырех основных этапов:

  1. Получение входных данных: Вы сообщаете рабочему процессу интересующую вас тему, чтобы получить соответствующие новости.
  2. Получение новостей: специализированный узел Python получает входную тему и отправляет ее в SERP API Bright Data для получения новостных статей из Google.
  3. Анализ новостей: LLM обрабатывает данные, полученные от SERP API, чтобы определить, какие новости стоит прочитать.
  4. Формирование выходных данных: Созданный отчет в формате Markdown содержит список всех новостей, извлеченных из SERP, а также краткое описание и оценку, указывающую на их пригодность для чтения.

Примечание: Это всего лишь пример, и вы можете использовать SERP API во многих других сценариях и случаях.

Следуйте приведенным ниже инструкциям, чтобы построить рабочий процесс в стиле RAG на основе свежих данных из SERP API от Bright Data в Azure ИИ Foundry!

Предварительные условия

Чтобы следовать этому разделу руководства, убедитесь, что у вас есть:

Следуйте официальному руководству Bright Data для получения ключа API. Сохраните его в надежном месте, так как он вам скоро понадобится.

Шаг № 1: Создайте концентратор ИИ в Azure

Оперативные потоки ИИ доступны только в концентраторах ИИ Azure, поэтому первым шагом будет их создание.

Для этого войдите в свою учетную запись Azure и откройте службу Azure ИИ Foundry, нажав на ее значок или найдя ее в строке поиска:

The Azure AI Foundry management page

Вы должны попасть на страницу управления “ИИ Foundry”:

Здесь нажмите кнопку “Создать” и выберите вариант “Хаб”:

Selecting the “Create > Hub” option

Далее заполните форму создания концентратора ИИ Azure, как показано ниже:

Filling out the Azure AI Hub creation form

Выберите регион, выберите существующую группу ресурсов (или создайте новую, если нужно) и дайте хабу имя, например bright-data-serp-ai-hub.

Затем нажмите кнопку “Обзор + Создать”. Вам будет показана сводная информация:

Reviewing the form info and pressing “Create”

Если все выглядит хорошо, нажмите “Создать”, чтобы начать развертывание.

Процесс инициализации может занять несколько минут. По его завершении вы должны увидеть страницу подтверждения, как показано здесь:

Your Hub deployment is complete

Замечательно! Теперь у вас есть Azure ИИ Hub, где вы можете создать проект и инициализировать поток подсказок.

Шаг № 2: Создание проекта в концентраторе ИИ

Чтобы управлять потоком подсказок, сначала нужно создать проект в ИИ-концентраторе. Начните с нажатия на опцию “Хабы ИИ” в левом меню:

Selecting the “AI Hubs” option in the left menu

Щелкните по названию вашего хаба и в появившемся разделе справа выберите “Создать проект”:

Pressing the “Create project” button

Заполните форму создания проекта. На этот раз назовите свой проект как-нибудь вроде serp-api-flow:

The Azure AI project creation form

Нажмите кнопку “Review + create”, затем проверьте, все ли правильно в разделе “Summary”. Наконец, нажмите “Создать”, чтобы развернуть проект.

Подождите несколько минут, пока проект инициализируется. Когда он будет готов, вы увидите его в списке на странице “ИИ-концентраторы”. Щелкните по нему:

Clicking the “Launch studio” button

Нажмите кнопку “Запустить студию”, чтобы открыть его в студии Azure ИИ Foundry:

Your project in Azure AI Foundry studio

Отметьте вверху, что вы работаете в проекте “Serp api flow”. Если это не так (например, у вас несколько проектов), убедитесь, что выбрали правильный проект.

Отлично! Приготовьтесь к определению потока подсказок ИИ в Azure.

Шаг № 3: Развертывание LLM

Чтобы использовать узлы LLM в потоках подсказок, в Azure необходимо сначала развернуть одну из доступных моделей ИИ.

Для этого в левом меню выберите пункт “Каталог моделей”. На странице каталога найдите модель ИИ, которую вы хотите использовать. Например, предположим, что вы хотите использовать gpt-5-mini.

Найдите “gpt-5-mini” и выберите ее:

Selecting the “gpt-5-mini” model

На странице модели нажмите “Использовать эту модель”, чтобы принять ее:

Pressing the “Use this model” button

В появившемся модальном окне нажмите кнопку “Создать ресурс и развернуть”, затем дождитесь окончания развертывания модели:

Waiting for the model to be deployed

Этот процесс может занять несколько минут, поэтому наберитесь терпения. После завершения развертывания вы увидите модель, доступную в вашем проекте ИИ Azure, как показано ниже:

The gpt-5-mini page for the adopted model

Замечательно! Теперь у вас есть движок LLM, готовый к работе с потоком подсказок.

Шаг № 4: Создание нового потока подсказок

Наконец-то пришло время начать работу над потоком подсказок. Начните с выбора “Prompt flow” в левом меню, затем нажмите кнопку “Create”:

Pressing the “Create” button

В модале “Создание нового потока” нажмите кнопку “Создать” на карточке “Стандартный поток”, чтобы запустить новый, базовый поток подсказок:

Clicking the “Standard flow > Create” button

Вам будет предложено ввести имя потока. Назовите его как-нибудь вроде bright-data-serp-api-flow:

Giving your prompt flow a name

Нажмите кнопку “Создать”, дождитесь инициализации потока подсказок, и у вас должен получиться такой поток:

Your new prompt flow in Azure AI Foundry studio

Как вы можете заметить, справа находится DAG(Directed Acyclic Graph) представление вашего потока.
Вместо этого слева находится визуальный редактор, в котором вы можете определить узлы вашего потока. Любые изменения, сделанные слева, автоматически отражаются в DAG справа.

По умолчанию стандартный поток включает простой пример, в котором ИИ предлагается рассказать анекдот.
Начните с нуля, удалив все существующие узлы и нажав “Start compute session”, чтобы ваша платформа для разработки потока заработала:

Starting the compute session in your new, blank flow

Примечание: При запуске вычислительной сессии Azure автоматически пытается запустить вычислительный экземпляр по умолчанию. Однако выделение ресурса может занять несколько минут или даже часов. Чтобы избежать длительного ожидания, запустите вычислительный сеанс вручную с помощью пользовательской конфигурации на собственном вычислительном экземпляре.

Отлично! Теперь у вас есть чистый холст, который можно превратить в поток подсказок ИИ в Azure на базе SERP API от Bright Data.

Шаг № 5: Разработка потока подсказок

Прежде чем создавать поток, необходимо четко определить узлы, которые он будет включать.

В данном случае целью является создание потока поиска и оценки новостей. При задании темы он будет опираться на Bright Data SERP API для получения связанных новостных статей из Google, а затем передавать их в LLM для оценки на предмет пригодности к прочтению. Таким образом, вы сможете быстро определить, какие статьи стоит прочитать.

Для достижения этой цели ваш поток будет состоять из четырех узлов:

  1. Входной узел, который принимает тему для поиска новостей в Интернете.
  2. Узел инструмента Python, который вызывает SERP API Bright Data, используя предоставленную тему.
  3. Узел LLM, который обрабатывает данные SERP, возвращаемые API, чтобы идентифицировать и оценить новостные статьи.
  4. Узел вывода, который отображает итоговый отчет, созданный LLM.

В следующих шагах вы узнаете, как реализовать этот поток подсказок ИИ в Azure!

Шаг № 6: Добавление входного узла

Каждый поток должен содержать как входной, так и выходной узел. Таким образом, узлы ввода и вывода не могут быть удалены и уже являются частью потока.

Чтобы настроить узел ввода, перейдите в раздел “Входы” вашего потока и нажмите кнопку “Добавить кнопку”:

Pressing the “Add input” button

Определите вход как тему и установите его тип на string:

Defining a “topic” input as a string

Потрясающе! Теперь узел ввода настроен.

Шаг № 7: Подготовка к вызову SERP API

Перед созданием пользовательского узла Python, вызывающего SERP API Bright Data, вам необходимо выполнить несколько подготовительных шагов. Они не являются строго обязательными, но упростят интеграцию и сделают ее более безопасной.

Во-первых, чтобы упростить вызовы API, установите Bright Data Python SDK. Этот SDK предоставляет удобные методы взаимодействия с продуктами Bright Data, включая SERP API (вместо того чтобы обращаться к ним напрямую через API с помощью HTTP-клиента). Подробнее о нем вы можете узнать из официальной документации.

SDK доступен в виде пакета brightdata-sdk. Чтобы установить его в свой поток, нажмите кнопку “Compute session running” слева, затем выберите опцию “Install packages from requirements.txt”:

Select “Install packages from requirements.txt” option

В панели определения потока откроется файл requirements.txt. Добавьте в него следующую строку, а затем нажмите кнопку “Сохранить и установить”:

Adding the brightdata-sdk line into the requirements file

После установки вы сможете использовать Bright Data Python SDK в пользовательских узлах инструментов Python.

Далее, поскольку SERP API требует аутентификации с помощью ключа API, а вы не хотите жестко кодировать его в своем потоке, вам следует надежно сохранить его как секрет в Azure. Для этого откройте “Центр управления” в левом меню (обычно это последний пункт):

Selecting the “Management center” option in the menu

В обзоре управления проектом нажмите “Новое соединение” в разделе “Подключенные ресурсы”:

Pressing “New connection”

В появившемся модале выберите опцию “Пользовательские ключи”:

Selecting the “Custom keys” option

Так можно хранить пользовательские ключи API в Azure ИИ Foundry.

Теперь создайте новый секретный ключ с именем что-то вроде BRIGHT_DATA_API_KEY и вставьте свой ключ API Bright Data в поле “Значение”. Обязательно отметьте опцию “является секретным”. Затем дайте своему подключению узнаваемое имя, например bright-data:

Defining your bright-data custom connection

Наконец, нажмите “Добавить соединение”, чтобы сохранить.

Отлично! Возвращайтесь к своему потоку. Вы готовы увидеть, как использовать Bright Data Python SDK и сохраненный ключ API для вызова SERP API всего в нескольких строках кода.

Шаг № 8: Определение пользовательского узла Python для вызова SERP API Bright Data

На канве потока нажмите кнопку “Python”, чтобы создать новый узел инструмента Python:

Pressing the Python button

Дайте узлу имя, например serp_api, и нажмите кнопку “Добавить”:

Clicking the “Add” button

В текстовой области кода добавьте следующий Python-код:

from promptflow import tool
from promptflow.connections import CustomConnection
from brightdata import bdclient

@tool
def serp_api(search_input: str, bd_conn: CustomConnection) -> str:
    # Инициализация клиента Bright Data SDK
    client = bdclient(api_token=bd_conn.BRIGHT_DATA_API_KEY)

    # Получение SERP из Google в формате Markdown 
    serp_page = client.search(
        search_input,
        data_format="markdown",
        страна="мы"
    )

    return serp_page

В Azure ИИ Foundry узлы Python должны определять инструменты как функции, аннотированные с помощью @tool. В данном случае функция serp_api() принимает в качестве входных данных строку поиска и пользовательское соединение.

Из пользовательского соединения функция считывает ключ BRIGHT_DATA_API_KEY, который вы определили ранее, и использует его для инициализации экземпляра клиента Bright Data API Python SDK. Затем этот клиент используется для вызова SERP API через метод search() с параметрами data_format="markdown" и country="US", чтобы вернуть соскобленную страницу SERP из американской версии Google в формате Markdown. (что идеально подходит для обработки ИИ).

Далее прокрутите страницу вниз и определите элементы ввода для узла. Сначала нажмите “Validate and parse input”, чтобы узел мог распознать корректные входные данные. Настройте идентифицированные входы путем сопоставления:

  • bd_conn на bright-data (ваше пользовательское соединение, определенное ранее).
  • search_input на ${input.topic}, чтобы поисковые данные из узла ввода передавались в SERP API.
Your serp_api node’s inputs

Потрясающе! Интеграция SERP API Bright Data в Azure ИИ Foundry завершена.

Шаг № 9: Укажите узел LLM

Теперь, когда у вас есть страница SERP, соответствующая начальной теме поиска, передайте ее в узел LLM для извлечения и оценки новостей. Добавьте узел LLM, нажав кнопку “LLM” прямо под вкладкой “Поток”:

Pressing the “LLM” option

Дайте узлу LLM имя, например llm, и подтвердите его нажатием кнопки “Добавить”:

Clicking the “Add” button

В этом узле вы определяете основную логику вашего потока подсказок. Для достижения цели извлечения и оценки новостей вы можете написать подсказку следующим образом:

# система:
Вы - помощник по анализу новостей, которому поручено определить наиболее релевантные новостные статьи по заданной теме.

# пользователь:
Учитывая приведенную ниже страницу SERP, извлеките наиболее важные новости и оцените каждую из них по шкале от 1 до 5, исходя из того, насколько она достойна прочтения.

Верните отчет в формате Markdown, содержащий:
* Заголовок новости  
* URL-адрес новости  
* Краткое описание (не более 20 слов)  
* Читабельность (1-5)

SERP PAGE:
{{serp_page}}

Раздел # system определяет роль и общее поведение помощника, а раздел # user содержит конкретную задачу и инструкции по обработке вводимых данных.

Далее настройте узел LLM на подключение к модели ИИ, развернутой ранее (в шаге #3):

Configuring the deployed model

Обратите внимание, что приглашение содержит параметр serp_page, который должен быть установлен на выход узла serp_api, определенного ранее. Настройте его в разделе “Inputs”, нажав “Validate and parse input” и присвоив serp_page значение ${serp_api.output}:

Setting the node's inputs

Отлично! Теперь у вашего потока ИИ в Azure есть функционирующий “мозг” LLM, способный обрабатывать результаты SERP и генерировать оцененные новостные отчеты.

Шаг № 10: Определите выходной узел

Последний шаг – настройка выходного узла. В разделе “Выходы” нажмите “Добавить выход”:

Pressing the “Add output” button

Задайте для вывода имя report и назначьте его выходом узла LLM с помощью переменной ${llm.output}:

Defining the “report” output

После этого нажмите “Сохранить”, чтобы сохранить поток подсказок:

Saving your flow

Поздравляем! Теперь ваш поток ИИ в Azure полностью реализован.

Шаг #11: Соберите все вместе

Если вы посмотрите на раздел “График” в среде разработки потока, вы должны увидеть группу DAG, как показано ниже:

The final DAG

Она наглядно представляет поток анализа новостей, описанный в шаге № 5, и показывает, как связаны входные данные, вызов SERP API, оценка LLM и выход.

Шаг № 12: Запуск потока подсказок

Чтобы протестировать поток подсказок ИИ Azure, давайте воспользуемся примером темы “Новости фондового рынка”. В узле “Inputs” заполните “Value” для темы строкой “stock market news”:

Setting “stock market news” as the flow input

Затем нажмите кнопку “Выполнить” в правом верхнем углу, чтобы запустить поток:

Running the flow

Вы должны увидеть, как каждый узел постепенно становится зеленым по мере прохождения данных через поток, пока они не достигнут узла “Выходы”:

The flow execution

Когда выполнение завершится, вы получите уведомление, как показано на рисунке:

Pressing the “View outputs” button

Нажмите кнопку “View outputs”, чтобы просмотреть результат работы потока:

The Markdown report produced by the flow

Как и ожидалось, поток создает отчет в формате Markdown, содержащий новостные статьи. В данном случае он включает:

- ** Заголовок новости:** Фьючерсы на Dow, S&P 500, Nasdaq растут на фоне переговоров между США и Китаем, которые подготавливают торговую сделку для Трампа

  ** URL-адрес новости:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

  **Краткое описание:** Обновление в прямом эфире: американские фьючерсы растут на надеждах на заключение торговой сделки между США и Китаем в преддверии встречи с Трампом.

  **Читабельность:** 5

- Заголовок новости:** Фондовый рынок сегодня: Фьючерсы на Dow, S&P 500, Nasdaq растут на фоне переговоров между США и Китаем, которые предваряют торговую сделку с Трампом

    ** URL-адрес новости:** [Yahoo Finance](https://finance.yahoo.com/news/live/stock-market-today-dow-sp-500-nasdaq-futures-climb-as-us-china-talks-tee-up-trade-deal-for-trump-225050786.html)

    **Краткое описание:** Рынки растут на фоне возобновления оптимизма в отношении торговли между США и Китаем во время переговоров с Трампом.

    **Читабельность:** 5

* Опущено для краткости...

Эти результаты отражают SERP-страницу “Новости фондового рынка” на момент запуска потока:

The SERP for “stock market news” on the day of the flow run

Чтобы убедиться в том, что страница SERP была получена правильно, посмотрите вкладку “output” в разделе “Outputs” узла serp_api:

The output produced by the “serp_api” node

Там вы увидите версию исходного SERP в формате Markdown. SERP API от Bright Data сделал свое волшебство!

Теперь, чтобы полностью изучить вывод потока, скопируйте вывод отчета в файл, например, report.md. Просмотрите его в программе просмотра Markdown, например в Visual Studio Code:

Inspecting the flow's output in Visual Studio Code

Обратите внимание, как отчет, созданный потоком, совпадает с новостями, показанными в поисковой выдаче Google по запросу “новости фондового рынка”. Скрапинг результатов поиска Google, как известно, затруднен из-за мер по борьбе с ботами и ограничителей скорости. Используя SERP API, вы можете легко и надежно получать результаты Google (или любой другой поддерживаемой поисковой системы) из разных регионов в формате Markdown, готовом для ИИ, без ограничений по масштабируемости.

Этот пример демонстрирует простой вариант использования, но вы можете экспериментировать с более сложными потоками, интегрировать другие продукты Bright Data или настроить подсказку LLM для решения различных задач. Поддерживаются и многие другие сценарии использования!

И вуаля! Теперь у вас есть поток Azure ИИ Foundry, который извлекает данные веб-поиска и использует их в качестве контекста в рабочем процессе в стиле RAG.

Заключение

В этой статье вы узнали, как использовать SERP API от Bright Data для получения свежих новостных статей из Google и интеграции их в рабочий процесс RAG в Azure ИИ.

Продемонстрированный здесь рабочий процесс ИИ идеально подходит для тех, кто хочет создать новостной помощник, фильтрующий контент, чтобы вы читали только те новости, которые имеют отношение к интересующим вас темам. Чтобы создать более сложные рабочие процессы ИИ, изучите полный набор инструментов Bright Data для получения, проверки и преобразования живых веб-данных.

Зарегистрируйте бесплатную учетную запись Bright Data сегодня и начните экспериментировать с нашими решениями для работы с веб-данными, готовыми к ИИ!

Вас также может заинтересовать