Здравствуйте, CRT, Вы писали:
CRT>У тебя нет понимания что такое большие языковые модели и как они работают (типа чатгпт или дипсик). CRT>Нет, это не надстройка над базами данных
Немного дополню. Сами по себе не надстройка, конечно. Но их можно использовать как такую надстройку, это называется Retrieval-Augmented Generation (RAG) Если объяснять "на пальцах", то нейросеть выступает в роли агента, уточняющего по какому-то промпту выборку данных, например, результаты поиска в базе данных. Сеть при этом галлюницировать не может, она только оценивает соответствие результатов запросу (промпту).
Здравствуйте, aik, Вы писали: aik>А я не очень. Гугл стал выдавать на каждый запрос в самом начале эту "AI" херовину, задолбало, а народ заморочился как её выключить. aik>
Оказалось, просто
aik>надо добавить "fucking" или "f*cking" к запросу. Типа "how to f*cking resolve host".
У меня поиск по "how to resolve host" никакой AI херовины не выдаёт.
... ЯИ>DeepSeek собирает множество фактов и выдает краткую квинтэссенцию. ЯИ>Выдача не всегда полная, не всегда верная
...
Вот она, квинтэсеенция!
Я не так давно искал в Яндексе инфу по одному уважаемому человеку (загляните в конец цитаты):
"ИИ" нашел цитату на каком-то фентезийном сайте, и добавил её к реальной!
Имхо, в этом и есть главная опасность всех этих тенденций. Размазывается грань между реальными данными и фантазиями.
Здравствуйте, Философ, Вы писали:
CRT>>У тебя неправильное понимание. Это не БД. И рядом не стоит. Как раз для извлечения фактов он не годится.
Ф>Осталось понять для чего он годится.
Для автоматизации рутины. Например, списки литературы он прекрасно оформляет по госту.
Чем совершеннее технически средство, тем более примитивные, никчемные и бесполезные сведения при его помощи передаются.(с)Станислав Лем
Здравствуйте, graniar, Вы писали:
SD>>"ИИ" нашел цитату на каком-то фентезийном сайте, и добавил её к реальной!
G>Увы, пофиксили.
Неизвестно пофиксили или нет. Потому что если задать ИИ один или тот же вопрос (обязательно надо в разных сессиях), то он может дать разные противоречащие друг другу ответы. Потому что алгоритмы специально добавляют элемент случайности.
Здравствуйте, Философ, Вы писали:
CRT>>У тебя неправильное понимание. Это не БД. И рядом не стоит. Как раз для извлечения фактов он не годится.
Ф>Осталось понять для чего он годится.
Он годится для извлечения фактов из предоставленного ему тобой текста.
Здравствуйте, CRT, Вы писали:
ЯИ>>Этим метауровнем обычно наука занимается, создавая модели на базе фактов. ЯИ>>DeepSeek собирает множество фактов и выдает краткую квинтэссенцию.
CRT>Какие факты. Он придумывает на ходу. Вот я его попросил процитировать стихотворение (реального автора, реальное стихотворение) https://rsdn.org/forum/flame.comp/8889572.1
CRT>>Какие факты. Он придумывает на ходу. Вот я его попросил процитировать стихотворение (реального автора, реальное стихотворение) https://rsdn.org/forum/flame.comp/8889572.1
Он выдает нечто собственного сочинения
D>Какой смысл спрашивать о том, что китайцы в него не закладывали и скорее всего не будут закладывать? Спрашивай о китайских стихах.
Если китайцы в него это не закладывали, то пусть он так бы и сказал: "не знаю такого". А то ведь он начинает врать и придумывать. По сути он придумывает всё, только что-то больше отклоняется от тех данных на которых его обучали, а что-то меньше.
Здравствуйте, Философ, Вы писали:
Ф>>>Осталось понять для чего он годится. D>>Он годится для извлечения фактов из предоставленного ему тобой текста.
Ф>В этом случае исключены галюцинации?
Совсем исключать я бы ничего не стал. Но вероятность ошибки скорее всего будет меньше, чем если посадить специально натренированного в этом вопросе человека. Человек, устаёт, отвлекается и всё такое. А чат всегда бодрый, свежий и на сколько это возможно не предвзятый.
Здравствуйте, CRT, Вы писали:
D>>Какой смысл спрашивать о том, что китайцы в него не закладывали и скорее всего не будут закладывать? Спрашивай о китайских стихах.
CRT>Если китайцы в него это не закладывали, то пусть он так бы и сказал: "не знаю такого". А то ведь он начинает врать и придумывать. По сути он всё придумывает, только что-то больше отклоняется тех данных на которых его обучали, а что-то меньше.
Так это тоже вопрос обучения. Может китайцы не учили его говорить "я не знаю такого"
И это не отменяет его способностей рассуждать логично.
CRT>>Если китайцы в него это не закладывали, то пусть он так бы и сказал: "не знаю такого". А то ведь он начинает врать и придумывать. По сути он всё придумывает, только что-то больше отклоняется тех данных на которых его обучали, а что-то меньше.
D>Так это тоже вопрос обучения. Может китайцы не учили его говорить "я не знаю такого"
То есть они учили его врать? На самом деле все большие языковые модели так работают. У них нет некой базы данных с которой он сверяет свои ответы. Он всегда придумывает.
D>И это не отменяет его способностей рассуждать логично.
Один говорит что чат бот — это надстройка над БД. Другой говорит что он рассуждает логично...
Нет. Он не использует логику (в смысле формальную или математическую) для генерации своих ответов. Он не проверяет свои ответы на соответствие законам логики. Он буквально в одном абзаце ответа может утверждать одно, а в следующем утверждать противоположное. То есть нарушает первый закон логики — закон противоречия. У него вероятностный подход. Если сказаны слова A B C, то с наибольшей вероятностью следующим будет слово D. И так далее. Это если совсем примитивно объяснять.