Re[3]: ollama + qwen + интернет возможна?
От: gandjustas Россия http://blog.gandjustas.ru/
Дата: 30.03.26 21:37
Оценка:
Здравствуйте, Артём, Вы писали:

Аё>Здравствуйте, gandjustas, Вы писали:


G>>- ИИ сама не ищет в интернете, но современные ии натренированы на function calling aka tool calling (бейдж tools в ollama каталоге)

G>>- Вызывающий код (клиент) передает описание функций (инструментов) в промпт
G>>- ИИ в ответе говорит "хочу вызывать функцию ХХХ с параметрами УУУ"
G>>- вызывающий код (клиент), получив такую инфу функцию спрашивает пользователя если надо и вызывает функцию если пользователь согласился, а ответ скармливает ИИ назад
Аё>да, всё так

G>>MCP (Model Context Protocol)

Аё>это tcp / pipe.
Не только

Аё>Регистрацию tools, перехват запроса на вызов от llm и имполнение tool (например "search_internet") можно сделать в клиенте, минуя mcp от слова совсем. Это то, что мы сделали недавно в Minimum Viable Product прототипе и с локальной ollama.

Оно и так делается в клиенте. В OpenAI API вообще нет понятия MCP, там есть только tools. MCP это механизим расширения клиента за счет подстановки tools.
 
Подождите ...
Wait...
Пока на собственное сообщение не было ответов, его можно удалить.