Здравствуйте, Артём, Вы писали:
Аё>Здравствуйте, gandjustas, Вы писали:
G>>- ИИ сама не ищет в интернете, но современные ии натренированы на function calling aka tool calling (бейдж tools в ollama каталоге) G>>- Вызывающий код (клиент) передает описание функций (инструментов) в промпт G>>- ИИ в ответе говорит "хочу вызывать функцию ХХХ с параметрами УУУ" G>>- вызывающий код (клиент), получив такую инфу функцию спрашивает пользователя если надо и вызывает функцию если пользователь согласился, а ответ скармливает ИИ назад Аё>да, всё так
G>>MCP (Model Context Protocol) Аё>это tcp / pipe.
Не только
Аё>Регистрацию tools, перехват запроса на вызов от llm и имполнение tool (например "search_internet") можно сделать в клиенте, минуя mcp от слова совсем. Это то, что мы сделали недавно в Minimum Viable Product прототипе и с локальной ollama.
Оно и так делается в клиенте. В OpenAI API вообще нет понятия MCP, там есть только tools. MCP это механизим расширения клиента за счет подстановки tools.