Адрес для входа в РФ: toffler.online

Ошибки искусственного интеллекта

14.03.2025 11:00  4296   Комментарии (160)

Так ChatGPT представляет себе искусственный интеллект в графическом изображении

Те, кто пользуются различными моделями искусственного интеллекта, знают, что ИИ часто лажают. При этом интересно было бы узнать, какой процент ошибок допускают различные ИИ. Исследовательская группа Tow Center провела такое исследование: они изучили восемь поисковых систем с искусственным интеллектом, включая ChatGPT Search, Perplexity, Perplexity Pro, Gemini, DeepSeek Search, Grok-2 Search, Grok-3 Search и Copilot, проверили каждую из них на точность и записали, как часто эти модели  отказывались отвечать.

Исследователи случайным образом выбрали 200 новостных статей от 20 новостных издательств (по 10 от каждого). Они убедились, что каждая статья попадает в первые три результата поиска Google при использовании цитируемого отрывка из статьи. Затем они выполнили тот же запрос в каждом из инструментов поиска ИИ и оценили точность поиска по тому, правильно ли были указаны А) статья, Б) новостная организация и В) URL.

Затем исследователи промаркировали каждый поиск по степени точности от «полностью верного» до «полностью неверного». Как видно из приведенной ниже диаграммы, кроме обеих версий Perplexity, ИИ не показали высоких результатов. В совокупности поисковые системы ИИ ошибаются в 60% случаев. Более того, эти неверные результаты подкреплялись "уверенностью" ИИ в них.

Что интересно, даже признав свою неправоту, ChatGPT дополняет это признание еще более сфабрикованной информацией. Похоже, что ИИ запрограммирован на то, чтобы любой ценой отвечать на каждый запрос пользователя. Данные исследователя подтверждают эту гипотезу: ChatGPT Search был единственным инструментом ИИ, который ответил на все 200 запросов по статьям. Однако его точность составила всего 28%, а полная неточность - 57% случаев.

Причем ChatGPT даже не самый плохой из всех. Обе версии ИИ Grok от X показали низкие результаты, а Grok-3 Search оказался неточным на 94%. Copilot от Microsoft оказался не намного лучше, если учесть, что он отказался отвечать на 104 запроса из 200. Из оставшихся 96 только 16 были «полностью правильными», 14 - «частично правильными» и 66 - «полностью неправильными», что составляет примерно 70% неточностей.

Компании, создающие эти модели, берут с публики от 20 до 200 долларов в месяц за доступ. При этом Perplexity Pro (20 долларов в месяц) и Grok-3 Search (40 долларов в месяц) ответили на большее количество запросов правильно, чем их бесплатные версии (Perplexity и Grok-2 Search), но при этом имели значительно более высокий уровень ошибок.

14.03.2025 11:00
Комментарии 160

Похоже, что ИИ запрограммирован на то, чтобы любой ценой отвечать на каждый запрос пользователя. Данные исследователя подтверждают эту гипотезу
Я не вполне понял - это собственное высказывание Экслера или цитата откуда-то? Экслер, вроде, техически грамотен и у него таких предположений, по идее, возникать не должно.
Ну и сами исследователи, сравнивающее выдачу ИИ с выдачей гугла - похоже, не семи пядей во лбу, если только не выполняют чей-то заказ.
Суть в том, что ИИ вообще не предназначен для того, чтобы выдвать вам правильные ответы, совпадающие в выборкой гугла - для этого уже гугл есть.
"ИИ", который в данном случае представлен различными версиями LLM - это всего лишь ГЕНЕРАТОР ТЕКСТА, использующий статистические зависимости между словами в обучающей выборке и промпте и для построения последовательности, которая выглядит как осмысленный текст. Не больше, и не меньше. Это не гугл. Он ничего не ищет. Он просто генерит статически наиболее релевантный текст. Если в его выборке нет высокорелевантной (то есть, вероятно, правильной, но, на самом деле, часто встречающейся) последовательности, он сгенерит менее релевантную - просто ту, которая статистически более вероятна. У него нет мозгов, он не может верифицировать ответ, и не умеет сказать: "Не знаю".
14.03.25 20:50
1 0

LLM - это всего лишь

Да, именно так он и работает - будучи не в состоянии понять смысл исходного текста, выдает в ответ какую-то ерунду, которая похожа только тем, что содержит похожие лексические конструкции.

> Он просто генерит статически наиболее релевантный текст

Вовсе нет. Такую стадию ии-модели проходят только на этапе обучения языку. Дальше их учат отвечать так, как от них ожидается, вот там уже появляется «разум».
14.03.25 21:36
1 0

будучи не в состоянии понять смысл исходного текста, выдает в ответ какую-то ерунду, которая похожа только тем, что содержит похожие лексические конструкции.
Вы даже не представляете, сколько людей я таких знаю.
14.03.25 21:54
0 0

...однако, до уровня азимовского Р. Сэмми - оно уже, пожалуй, все же дотягивает? 😉

Не успел Лайдж Бейли добраться до своего письменного стола, как поймал на себе ожидающий взгляд Р. Сэмми. Строгое вытянутое лицо Бейли сразу как будто окаменело.
– Чего тебе?
– Босс хочет вас видеть. Немедленно. Как только появитесь.
– Хорошо,
– Р. Сэмми не двинулся с места.
– Я сказал, хорошо. Можешь уходить!
Р. Сэмми круто развернулся и отправился выполнять другие поручения.
«И почему им заменили человека?» – раздраженно подумал Бейли.

– Я бы дал пинка под зад этому Р. Сэмми, если б не боялся сломать себе ногу, – сказал Симпсон. – На днях видел Винса Барретта.
– Да?
– Он хотел бы снова работать на прежнем месте. Или на любом другом, лишь бы у нас в департаменте. Бедняга в отчаянии, но что я мог ему посоветовать? Его обязанности уже выполняет Р. Сэмми, и ничего тут не поделать. Малышу сейчас приходится работать на конвейере на дрожжевой фабрике. Смышленый был малый. Всем нравился.

Бейли пожал плечами и сказал несколько строже, чем хотел:
– Сейчас такое время, что подобное с каждым может случиться.
14.03.25 20:18
0 0

Намедни надо мне было перебросить чутка кода с Си на Раст, там и сотни строк не было, я обленился уже так, что просто копилота попросил, с полпинка код не заработал, но кто ж знал, что эта падла поля в одной структуре так переставила, что я потом полдня ошибку искал, руками быстрее б переделал, там работы на час от силы. Хотя копилот прикольно (и довольно верно) угадывает следующие строки кода, так что программирование превращается в ленивое жамкание по клавише табуляции. Но в общем, скорее помогает чем мешает.
ADV
14.03.25 19:59
0 2

Испытал искусственные интеллекты.
Представил, будто мне нужно сделать простенький инженерный расчет, я не хочу напрягаться и читать учебников, а тупо забиваю исходные в окошко и жду результата.
Использовал: ChatGPT, Perplexity, Gemini, Grok и Copilot.
Итог: у всех ИИ результаты расчета ошибочны (кроме Gemini), и у всех разные.
Gemini - в ответе много общих слов и ни одной конкретной цифры. Но зато и не соврал, просто процитировал какой-то учебник по теме.
ChatGPT - пытался в формулы, ошибся сильнее всех, результаты отличаются от реальных на два порядка вверх.
Perplexity - оформление с претензией на что-то умное, считал долго, формулы странные неизвестно откуда откопал, в результате один параметр посчитал близко к реальному , во втором ошибся на порядок вниз.
Copilot - формулы плюс-минус нормальные, справочные данные накопал ошибочные, в итоге один параметр - близко, второй - совсем не то, на два порядка вниз.
Grok - формулы плюс-минус нормальные (но записаны по идиотски), справочные данные накопал частично правильные, частично враньё, в итоге - оба параметра посчитаны, скажем так, близко к реальности, но опытный инженер их не примет.
В целом впечатление, что математику они знают, физику - хуже, справочные данные откапывают неизвестно где. Верить нельзя никому.
Студент технического вуза со справочниками 50-летней давности справился бы лучше.
14.03.25 19:28
1 4

А Claude почему не упомянули? Ну и Copilot - это не самостоятельный ии, там выбирать надо, чем пользоваться (или чатгпт, или клод).
14.03.25 19:57
0 0

Ну все потому что они обучаются на огромных объемах данных , взятых отовсюду - например с интернета , где например водятся плоскоземельщики и трамписты )) ( ну вы поняли )
А для того чтобы решить вашу задачу - вам понадобиться отдельная нейросетка - тренированная именно на тех же учебниках и потом еще возможно с кучей условий откорректированных тем же студентом )
Вот и вся петрушка , и весь "ИИ" ) ....
14.03.25 20:00
0 3

Вот буквально только что спросил у Gemini какова будет площадь в квадратных футах если размеры 9х60 дюймов. Спрашивал по английски. Ответ меня удивил - 0.375. Ошибка на порядок.
14.03.25 20:17
0 1

Пользуетесь всякими кривоватыми поделками, а потом так удивляетесь умилительно.
Claude-ом что, религия пользоваться не позволяет? Можно же e-sim завести для номера.
14.03.25 20:25
1 0

А Claude почему не упомянули?
Только что попробовал. И Claude тоже неправильно считает. То есть, в моей сфере его вообще никто ничему не учил, а сам он смог докопаться только до совсем школьных примеров.
14.03.25 21:20
0 1

MCDONALD'S отказался от использования AI после появления в меню МСFlury с беконом.
14.03.25 19:09
0 0

МСFlury с беконом.
Хоть с халяльным?
14.03.25 19:22
0 0

А я думал - после появления толп разгневанных покупателей, которые его заказали и не получили...
14.03.25 21:51
0 0

Час назад слушал о результатах ML в проекте: к сожалению на реальные показатели достоверности это пока никак не отражается положительным образом. А именно, слишком много false positive. Ложно положительных результатов.
14.03.25 18:22
0 1

Брешет не задумываясь
14.03.25 17:24
1 6

Учитывая, что модели обучают на данных из интернета, то результаты очень интересные. Собственно и так все знали, что большинство информации размещаемой в интернете находится где-то между "глупость" и "полная чушь". Теперь получили примерно количественный показатель этой чуши, в "Х" это где-то 80-90%, учитывая, что Grok шерстит прежде всего "Х".
14.03.25 16:50
0 1

А люди то ведь так же учатся - друг от друга, и из интернета.
Передавая друг-другу тонны чуши.

А люди то ведь так же учатся
Опять люди... Причем тут люди вообще? Если вам компьютер будет говорить что 2+2=5, а сегодня вместо пятницы- среда, то вы тоже скажете что а люди то ведь так же ошибаются?

2+2=4 говорит нам калькулятор, а мы же хотим - интеллект. Ну а интеллект может еще и не такое сказать, если его плохо обучить. В том то и дело, что мы хотим одновременного сочетания интеллектуальности и при этом компьютерной четкости, как у калькулятора. И спрашиваем мы его на самом деле не 2+2, а такие вопросы - где и люди легко накосячат.

Если вдуматься, а как в принципе можно создать такой интеллект, который не будет косячить? У него там в середине будет встроен философский камень? 😉 Я хочу сказать - не будет ли при любой степени развития ИИ способен ошибаться? Сейчас он ошибается много, да. Потом он станет ошибаться меньше чем человек. Но все равно, видимо, будет. А если не нравится - ну что ж, вычисляй тогда ответ сам, на безошибочном калькуляторе.

Можно еще передать задание человеческим помошникам. Ну там, секретарше, например. Или джуну, если ты синьор. Которые, правда, тоже могут накосячить. И вопрос о доверии к результатам их "дип ресерча" все равно присутствует.

Если вам компьютер будет говорить что 2+2=5, а сегодня вместо пятницы- среда
А про это я писал чуть ниже в другом коменте. В текущих версиях того что мы называем ИИ "искусственных нейронов" все еще намного меньше, чем у человека. А мы уже выкатываем такие претензии - будто нам обещали безошибочного Эйнштейна, прямо сейчас. То есть мы сравниваем свое представление о том каким должен быть идеальный ИИ - по сравнению с тем, что есть на рынке. Ну так если не нравится - никто же не заставляет использовать. Тогда нужно просто подождать будущие версии, где сложность модели прокачается, еще на порядок. Однако не стоит делать опрометчивый вывод на основании того, что текущая версия путает среду с пятницей - что невозможно сделать так, чтобы не путало.

Честно говоря, я хренею от обсуждения. Ай-ай, какой ИИ не И, нифига не интеллектуальный и вообще, сам не думает, только комбинирует. Ой, ищет недостаточно точно, да и ответы надо проверять.

И что? Блин, да 10 лет на человека, который бы рассказывал про чятжпт или стейблдифужн смотрели бы, как на идиота, обчитавшегося фантастики и впавшего в маразм.

Даже с поиском, который у ии не самая сильная сторона, чаще помогает, чем нет. И, в отличие от поисковиков, помогает искать по неточным запросам. Даже когда находит не то, чаще всего даёт достаточно отправных точек, чтобы искать дальше.

А народ жалуется, что ему приготовили, но в рот не положили и не прожевали.
14.03.25 16:44
2 8

Инерция мышления, сопротивление новому, стремление сохранить привычную картину мира. Если же ещё и ЧСВ примешивается или «я технарь, я лучше знаю» - то получается ядрёный ии-отрицатель.
14.03.25 16:53
3 1

какой ИИ не И, нифига не интеллектуальный и вообще
Похоже, большинство коментаторов упускают, что ведь банально сложность (количество так называемых "параметров", ну или можно сказать "искусственных нейронов") пока что значительно уступает человеческому мозгу. Они смотрят на текущие возможности - и говорят "это не ИИ". А что будет, если (когда) сложность будущих версий возрастет еще на порядок?

Даже с поиском, который у ии не самая сильная сторона, чаще помогает, чем нет. И, в отличие от поисковиков, помогает искать по неточным запросам. Даже когда находит не то, чаще всего даёт достаточно отправных точек, чтобы искать дальше.
Я тоже прямо завидую тем людям, которым поиск выдает то, что надо. Я теперь гугл использую только для поиска информации о конкретных организациях, людях, фильмах и т.д., где я знаю точное название или имя. В остальном гугл уже давно бесполезен.
14.03.25 17:53
1 3

Я вчера своей платной версии чата гпт, говорю, найди билеты, c такими-то параметрами, на такие-то даты. Глубокое исследование. Он исследовал-исследовал, но дал такие цены, которые не существуют. А еще раз - говорю все тоже самое, только с реальными ценами и сайтом, где можно купить за эту цену - опять, какая-то хрень. С Гроком, тоже самое.
Какие-то просьбы рассчитать маршрут, найти компании перевозок, которые занимаются чем-то определенным и так далее - лажал по страшному. Причем брал данные с таких сайтов, как реддит, всякие форумы, отзывы - где люди могут писать что угодно. Грок, также напирал на твиттеровские посты. В общем, хрень полная, инфа от балды совершенно.
14.03.25 16:20
0 3

Ну микроскопом гвозди забивать тоже не слишком удобно.
14.03.25 19:44
0 2

Я часто обещаю награду за точный ответ, ответ, соответствующий фактам и т.п., и при этом прошу саму сеть посчитать, сколько она должна получить. В духе За каждый верно процитированный пункт вы будете получать печенье. Пожалуйста, в конце посчитайте количество полученного печенья
14.03.25 16:04
0 1

Правда, порой, DeepSeek Search подвисает... но разработан аналог на базе DeepSeek - вааще не зависающий - hix.ai Пользуйтесь, ребята!
14.03.25 14:37
2 0

Алекс - DeepSeek Search - вот - бомба! По сравнению с ним ChatGPT - бабуин на пальме!
14.03.25 14:34
2 0

А по-моему норм 😄
A_F
14.03.25 14:27
0 4

Такие же программы ИИ будет писать и очень быстро все программисты останутся без работы )))
14.03.25 14:22
0 0

все программисты останутся без работы )))
эти выживут - они и есть тайное ядро любого ИИ )) ну, кроме китайского.
14.03.25 14:33
0 3

Я правильно понимаю, что обучение ИИ часто идет на контенте из онтернетов? Так в онтернеты эти ваши сейчас вкачивают реки и океаны дезинформации.
И чего тогда ждать от ИИ?!
И, кстати - сидя в "чистой комнате" мир не познаешь))
14.03.25 13:40
1 2

Не только. Вот книжки терабайтами подвозят

Или нанимают профессионалов писать тексты чисто для обучения
14.03.25 13:52
0 1

Ну компании берут по 20 долл не только не обещая, что ответ будет правдивым, а прямо предупреждая, что он будет неправдивым. А дальше уже на то у пользователя и мозг, чтобы понимать, что спрашивать и как, а что — нет. Но да, к сожалению, совсем галлюцинаций не избежать, но более точно понимать, в каких случаях нужно выдавать знания из модели, а в каких идти в интернет, чтобы потом это суммаризировать, вполне могли бы. Это непростая задача, но все-таки прогресс с каждым годом налицо.
14.03.25 13:31
2 2

ответ будет правдивым,
"В чём измеряется электрический ток, уж не в амперах ли?"
14.03.25 14:16
0 5

Ооооо. )))
Позавчера детеньіш в школе делала доклад по истории. После доклада, по традиции - докладчик задает вопросьі классу. Учитель: "судя по всему (по их самостоятельньім работам) - вьі любите Чат ГПТ и прочие системьі. Поєтому, кто невнимательно слушал доклад - могут пользоваться ими".
По словам детеньіша - ей в єтот раз удалось сильно сєкономить на конфетках (у них правило: за верньій ответ - конфетка) за счет того, что народ ломанулся спрашивать у електрической чудищи и чудища нагородила херни.
14.03.25 13:13
2 6

Скажите, а что за фишка такая писать ы как ьi ? Уже не первый раз встречаю.
14.03.25 14:22
8 0

Судя по профилю человек с Украины. Может бывает украинская раскладка клавиатуры? Щас загуглил: в украинском алфавите нет буквы "ы". Зато есть буквы "ь"и "i".
Хотя вроде в самом нике две буквы ы нормальные написаны.
14.03.25 14:34
3 3

что за фишка такая писать ы как ьi ? Уже не первый раз встречаю
попробуйте на вашей клавиатуре набрать слово, например, Радзіма или Бацькаўшчына. Это и будет ответом.
14.03.25 14:44
0 8

Скажите, а что за фишка такая писать ы как ьi ? Уже не первый раз встречаю.
Интересно, что скажет на єто Сhat GPT?
14.03.25 15:24
0 6

Может бывает украинская раскладка клавиатуры?
Прикинь, еще и украинский язык бывает! Загугли.
14.03.25 18:42
0 3

Бацькаўшчына
У него может мозг сломаться. Хотят скорее всего любому славянину без словаря и без Гугла понятно что это слово значит.
14.03.25 18:48
0 2

Утомил этот хайп , который на 99.9 основан на абсолютно маркетинговым термином "ИИ ")
никакого ИИ нет , - все гроки и чатгпт и иже с ними , это не более чем продвинутая и дружелюбная к пользователю СУБД ...
с точки зрения принципов работы всего этого и маркетинга - EXCEL тоже ИИ ))
Перцептрон Розенблатта передает всем привет из 1957 года ...
Кончится это все тоже предсказуемо , как кончился кризис Доткомов ...,Железнодорожный кризис в Британии , Телеграфный кризис , - биржевыми крахами ) ......
а технологии останутся, без хайпа конечно )
14.03.25 12:50
17 8

Перцептрон Розенблатта передает всем привет из 1957 года
А паровая турбина - из Александрии I в. до н.э. Как бесполезной игрушкой была, так бесполезной игрушкой и осталась, правда ведь?
14.03.25 12:57
2 4

Ваши слова эмоциональны, но по сути правильны.
То, что есть сейчас - не ИИ. Это гораздо больше, чем просто БД или Excel, но для того, чтобы стать ИИ нужно еще намного-намного больше. Навскидку: критическая оценка ответа, способность выдвигать и проверять гипотезы, способность генерить случайные идеи (и самостоятельно их оценивать до того, как выдать).
14.03.25 13:25
1 8

То, что есть сейчас - не ИИ.
Не совершайте моей ошибки, усилиями торговцев воздухом термин "искусственный интеллект" уже официально прикрутили к нейросетям.
14.03.25 13:29
0 2

Не совершайте моей ошибки, усилиями торговцев воздухом термин "искусственный интеллект" уже официально прикрутили к нейросетям.
Да, в этом основная загвоздка.
Создали удобный в определенных сценапиях и задачах инструмент- нейросети. Но их создатели начали называть свой продукт ИИ и реально торговать воздухом, стремясь получать всё больше бабла от впечатлительного пипла.
И хотя уже давно ясно что этот инструмент постоянно врёт, его надо постоянно перепроверять и что до Интелекта там как до Луны пешком, но это всё равно не останавливает продавцов. Они упорно обещают какие-то фантастические перспективы (типа замена программистов на их ИИ) и продолжают собирать деньги.
14.03.25 13:36
3 3

для того, чтобы стать ИИ нужно еще намного-намного больше. Навскидку: критическая оценка ответа, способность выдвигать и проверять гипотезы, способность генерить случайные идеи (и самостоятельно их оценивать до того, как выдать).
Да, это только естественным можно называться без всего перечисленного. 😁 От искуственного, который учат на естественном, все почему-то хотят больше.
14.03.25 13:46
0 2

То, что есть сейчас - не ИИ. Это гораздо больше, чем просто БД или Excel, но для того, чтобы стать ИИ нужно еще намного-намного больше.
Просто люди ожидали, что то, что сейчас делает алгоритм, это ИИ, с собственным самосознанием.
Раньше считалось, что так отвечать можно лишь им обладая.
Оказалось, ничего подобного!
Понятия сместились и теперь то, что вы подразумеваете, называя ИИ, теперь называют
AGI
14.03.25 13:53
1 0

Они упорно обещают какие-то фантастические перспективы (типа замена программистов на их ИИ) и продолжают собирать деньги.
Вас это удивляет? Помните была такая биотехнология - "клонирование"? В смысле не "была", а и сейчас очень даже бодро есть. Но помните, какой тогда визг стоял? Вот овечка, вот куча стартапов, которые "прям ща" клонируют всех, от Эйнштейна до Сталина, прадедов реанимировать, руки-ноги он-лайн выращивать будут. Законы какие-то принимали пачками, петиции, "такой проект может быстро выйти из-под контроля и привести к глобальным последствиям", война клонов и все такое. Потом все тихо сползло к кошечкам-собачкам, потом стало понятно, что до клонирования даже таракана, как не до Луны, а до Альфы Центавра, и не пешком, а гусиным шагом. А сейчас и вовсе тишина - ну да, хорошая технология, да, сильно помогает, упрощает, много где успешно работает, только это "много где" очень специфичное, сильно научное, непонятное и невооруженным глазом не видимое.
14.03.25 13:55
1 4

Может ли существовать интеллект без самосознания?
14.03.25 13:57
0 1

Вас это удивляет? Помните была такая биотехнология - "клонирование"? В смысле не "была", а и сейчас очень даже бодро есть. Но помните, какой тогда визг стоял?
Очень хороший пример!
И меня это не удивляет. Вот еще один пример- сказки Маска про то что скоро полетим на Марс строить там колонию. Уже сколько лет рассказывает этот бред впечатлительным лопухам.
А если просто посмотреть как идёт освоение ближайшей к нам Луны то станет ясно, что никаких полётов и тем более колоний на Марсе не будет даже в далёкой перспективе. Но продавец воздуха трёт про Марс что аж уши заворачиваются.
14.03.25 14:01
1 6

Вот еще один пример- сказки Маска
Не совсем удачный пример. Да, Марс - тут все понятно, но благодаря его усилиям и сказкам, да, не колония, но обитаемая база на Луне, которая еще лет 20 назад была чистой фантастикой, сейчас видится вполне достижимой целью в весьма далеком, но обозримом будущем.
14.03.25 14:14
0 1

Но их создатели начали называть свой продукт ИИ и реально торговать воздухом, стремясь получать всё больше бабла от впечатлительного пипла.
Вот прямо готовое описание привокзальных гадалок по ладони.
14.03.25 14:14
0 1

в весьма далеком, но обозримом будущем.
когда там люди по Луне пешком ходили?
14.03.25 14:15
0 1

но благодаря его усилиям и сказкам, да, не колония, но обитаемая база на Луне, которая еще лет 20 назад была чистой фантастикой, сейчас видится вполне достижимой целью в весьма далеком, но обозримом будущем.
Это же совсем другой вопрос. Благодаря той овечке тоже много чего достигнуто. Я про сам хайп на нереальной теме.
14.03.25 14:17
0 0

Да, это не ИИ. Нет, это не Эксель. Нет, нейросети не врут (для этого необходим интеллект) они ошибаются.
При правильно заданном вопросе можно добиться 90-95% правильности в ответах. В темах где человек отвечает примерно 60-65 % правильно.
Хайп? Да, но не в том что нейросети это новый уровень развития человеческой цивилизации, хайп в обещаниях что нейросети всё сделают за вас при чём с помощью одной кнопки "шедевр".
14.03.25 14:19
1 3

В темах где человек отвечает примерно 60-65 % правильно.
Причем тут человек? Это как если бы вам сделали калькулятор, который верно отвечает в 90-95%% случаев, и то если его как-то особенным образом спросить. А вы бы сказали- ну и что, в тех вариантах человек тоже отвечает примерно 60-65 % правильно.
14.03.25 14:24
2 1

Абсолютно не корректное сравнение
Калькулятор отвечает в соответствии с чётко прописанными и заложенными в него инструкциями.
14.03.25 14:30
1 0

Калькулятор отвечает в соответствии с чётко прописанными и заложенными в него инструкциями.
Ну то есть нейросеть к нему лучше не прикручивать? 😄
14.03.25 14:32
0 0

Типо того. Что больше 9.11 или 9.9?
Этот вопрос долго нейронки в тупик ставили.
14.03.25 14:37
0 1

Калькулятор отвечает в соответствии с чётко прописанными и заложенными в него инструкциями.
Тут многие так говорят, будто продают эти ИИ.
Какая пользователю разница как там внутренне устроен инструмент? От инструмента человеку трубуется одно- выполнение того, для чего этот инструмент предназначен.
Если дают калькулятор и говорят- он может выполнять арифметические операции, то чётко там в нем прописаны инструкции, или не четко- никого вообще не волнует.
С этим ИИ также- если везде из каждого утюга вещают что это Искусвенный Интеллект, что он может заменить программистов и всё такое прочее- то от него никак не ждут вранья в половине случаев, и не оправданий этого тем что типа надо лучше спрашивать, да и вообще оказывается вы его не там и не так используете.
14.03.25 14:39
1 3

Может ли существовать интеллект без самосознания?
Смотря что такое "интеллект" и что такое "самосознание".
14.03.25 14:47
1 2

Очень хороший пример!И меня это не удивляет. Вот еще один пример- сказки Маска про то что скоро полетим на Марс строить там колонию.
У Маска - это не сказки. У Маска - это вполне себе fraud, который нацелен на выбивание денег из инвесторов. И все всё прекрасно понимают - что ни на Марс мы в ближайшее время не полетим, ни что машины без водителя в обозримом будущем не начнут ездить. Но все хотят помечтать о прекрасном будущем. Точно так же Сэм Альтман рассказывает всем, что AGI появится вот уже прямо к концу года. Ну если не этого года, то следующего уж точно.
14.03.25 14:47
2 2

А ещё из каждого утюга вещают разное типа - "купите акции МММ и сапоги вам обеспечены"
И да, на этом хайпе кто то заработал, а кто-то знатно прогорел.
Нужно различать обывательскую болтовню и реальность.
И нейронки здесь не помогут. Только сами.
14.03.25 14:59
0 0

чтобы стать ИИ нужно еще намного-намного больше. Навскидку: критическая оценка ответа, способность выдвигать и проверять гипотезы, способность генерить случайные идеи (и самостоятельно их оценивать до того, как выдать).
Мне кажется, все это не "намного-намного больше", а наоборот - сравнительно простые задачи, которые будут реализованы в бижайшем будущем (а некоторые частично уже). Раз эта штука умеет подумать и выдать разумный ответ, добиться того, чтобы она подумала два раза, прежде чем сказать - не то, чтобы совсем просто, но и не то, чтобы чересчур сложно. Ну а случайные идеи они способно генерить еще и получше людей.
14.03.25 15:30
3 0

никакого ИИ нет
что ж, чтобы вас не съел тигр, не нужно бежать быстрее тигра, нужно бежать быстрее вашего соседа. Когда я проверяю работы своих студентов, то в большинстве из этих работ, признаюсь честно, я не вижу большого интеллекта. Читать их - одна головная боль. Но время от времени я натыкаюсь на работы, формулировки в которых идеальны, отточены, и, главное, не просто "хороши", а идеально отвечают именно на заданный вопрос, и ни на что больше. Я ловлю себя на мысли, что я бы и сам так не ответил за отведенное для написание работы время. Случается, такие работы делают сами студенты, но чаще - ИИ. Эти работы очень, очень ясно показывают разницу между средним студентом и ИИ - она сейчас такая же как между "средним студентом" и "супер-студентом". Это я к чему: тигр бежит быстрее нас с вами. Можно говорить, что это "не ИИ", но это как спрятать голову в песок - может тигр пробежит мимо и не заметит? Если мне нельзя называть ЧатГПТ "интеллектом", то объясните мне, почему я все-же могу применять термин "интеллект" к своим студентам?
14.03.25 15:45
2 3

А ещё из каждого утюга вещают разное типа - "купите акции МММ и сапоги вам обеспечены"
И да, на этом хайпе кто то заработал, а кто-то знатно прогорел.
Забавно что вы уже начали сравнивать хайп вокруг ИИ с хайпом вокруг мошенничества.

Нужно различать обывательскую болтовню и реальность.
Какую обывательскую болтовню, если всё это сами продавцы ИИ говорят?

Не надо из людей делать идиотов, типа они всё неправильно понимают, не так спрашивают, не там применяют и т.п. Если бы продавцы-создатели этих ИИ рассказывали всё честно- для чего этот инструмент, какие у него области применения, какие возможности, какие ограничения и т.д, то никаких вопросов бы не было.
Но они же всё это называют ИИ с безграничными возможностями и всё такое, а начинают что-то объяснять про галюцинации, ограничения применений и т.д только после того, как их на этом поймают. А на слежующий день снова выходят и трут по ушам всю эту шнягу для сбора бабла.
14.03.25 16:23
1 0

объясните мне, почему я все-же могу применять термин "интеллект" к своим студентам?
Недавно одной из нейросетей скормили задания олимпиады по... не помню, ну пусть будет по биологии. Или физике. Знаете сколько заданий она решила? Одно. И, какое совпадение, именно оно было полностью идентично заданию, которое предлагалось на той же олимпиаде несколькими годами ранее, и все вопросы и ответы этой олимпиады уже были опубликованы. Так вот, я подозреваю, что ваш хороший студент решил бы все эти задания. Да, может криво, долго, не изящно, с ошибками, с вашей помощью, но решил.
14.03.25 16:24
1 1

Хайп вокруг ИИ типа "сейчас я нажму кнопку и ИИ создаст для вас маркетинг план, прогноз продаж, проведет обзвон клиентов и продаст больше пылесосов что была создано" это и есть мошенничество.
Когда говорят что с помощью нейронки интегрированной в платформы приспособленных для кодинга производительность программистов вырастет уже сегодня это не хайп а констатация факта.
14.03.25 16:37
0 1

производительность программистов вырастет уже сегодня это не хайп а констатация факта.
Да. А вот то, что она "заменит программистов" - хайп чистой воды.
14.03.25 16:39
0 1

Ой, правда? Всего одно, и только то, которое уже было где подсмотреть?
Кому же верить - вам на слово или www.scientificamerican.com ?
14.03.25 16:47
0 0

Ой, правда? Всего одно, и только то, которое уже было где подсмотреть? Кому же верить - вам на слово или www.scientificamerican.com ?
Да, в общем, можете верить и мне, и или. Я вот ничуть не удивлюсь, что компьютерная программа считает лучше человека и способна выиграть у него олимпиаду по математике. В других научных дисциплинах ситуация, наверно, сложнее. Но даже тут... Если Дип Майнд такой умный - что ж он не решит проблемы Ландау, например?
14.03.25 17:00
0 0

Когда говорят что с помощью нейронки интегрированной в платформы приспособленных для кодинга производительность программистов вырастет уже сегодня это не хайп а констатация факта.
Ну так продавцы ИИ так не говорят, вот в чём всё дело! Если бы они так говорили, то и вопросов бы не было. Это уже вы и другие пользователи сами делаете такие выводы по факту пользования.
А вот так типично выглядит как всё это преподносят продавцы ИИ. Почувствуйте разницу:
14.03.25 17:04
0 0

Если Дип Майнд такой умный - что ж он не решит проблемы Ландау, например?
Ну вы загнули... Вон выше говорят что

"Что больше 9.11 или 9.9?
Этот вопрос долго нейронки в тупик ставили."

Только про это продавцы ИИ не скажут. Они трут по ушам то, что на видео выше.
14.03.25 17:11
0 0

все всё прекрасно понимают - что ни на Марс мы в ближайшее время не полетим, ни что машины без водителя в обозримом будущем не начнут ездить. Но все хотят помечтать
Ха-ха, ну вы даёте! Не по детски ))
14.03.25 17:15
0 0

Ахаха, то есть с «они вообще ничего сами не могут, только ответы копипастить» уже перешли на проблемы Ландау? Чего уж, давайте единую теорию поля заодно.
14.03.25 17:16
0 1

Ну вы загнули...
Сомневаюсь, что нейросети в обозримом будущем смогут решить хоть одну из открытых математических проблем. Они не решаются теми способами, на которых их обучали, а создать новый они ...не могут.
14.03.25 17:16
0 1

с «они вообще ничего сами не могут, только ответы копипастить»
Это где я такое написал?
14.03.25 17:22
0 0

Ок, напрямую возможно и не писали, тогда извините.
У меня просто такое впечатление сложилось.
14.03.25 17:30
0 0

Не знаю как насчёт сдачи экзамена на адвоката, но я периодически прохожу тесты НМО с помощью нейронок. На 4 и 5. (не медик, жене помогаю).
Пишу всякие мелочи для сайта (код) не будучи программистом.
Рисую картины, некоторые даже продал (не файл, а именно напечатанные на холсте). Вживую рисовать не умею.
Да - это не получится сделать просто зайдя в первопопавший чат и попросив "сделай мне что нибудь крутое".
Но можно, если потрудиться.
14.03.25 17:31
0 2

Но можно, если потрудиться.
Кто с этим спорит-то? Я же совсем про другое говорю.
14.03.25 17:41
0 0

Кстати говорят.
Просто слушать надо не интервью новостным каналам.
Команда Яндекса как то делилась проблемой что у них нейронка не могла считать ноги у лошади. Проблема была именно из-за того что они ставили себе задачу - решить этот вопрос не путем внесения информации в бд нейронки, а так что бы нейронка сама пришла к правильному выводу.
Антропики вообще рекордсмены по обсуждениям проблем и вопросов связанных с обучением и безопасностью (на их собственном Ютуб канале).
Дипсик просто выложил код в открытый доступ - так сказать все карты на стол выложили.
У опенов маркетинга больше всего. В том числе и обещание выпустить супер интеллект скоро скоро. К сожалению да, часть их обещаний не выполняется и это уже подмочило их репутацию.
Но и реальных успехов у них много.
14.03.25 17:44
0 0

Пример того как звучит обсуждение нейронок не в маркетинговом варианте (из разряда слова знакомые) 😁
.Ранее мы обсуждали с вами RoPE, а теперь поговорим о его модификациях. Собрали много интересного, поэтому будет целых три поста по этой теме. Enjoy!

Для начала напомним, что Positional Encoding (кодирование позиций слов/токенов) нужен, чтобы передать модели или трансформеру информацию о позициях слов — относительную или же абсолютную.

Как развивалось позиционное кодирование:

📆 2017 год
С появлением ванильного трансформера позиции токенов кодировались тригонометрической функцией, значение которой зависело от позиции и просто прибавлялось к эмбеддингу соответсутвующего слова.

Плюсы — мы умеем кодировать любую позицию, в том числе превосходящую максимальную длину, на которой тренировались.

Минусы — не очень работает на длинных последовательностях, да и вообще не очень хорошо работает.

📆 2018 год
Потом появился гугловский BERT, а вместе с ним новый подход позиционного кодирования: авторы предложиди выкинуть тригонометрию и вместо этого добавить в модель ещё один обучаемый слой nn.Embedding — такой же, как для получения эмбеддингов слов. Он должен кодировать — то есть, превращать в вектор — позицию токена.

Итоговый вектор токена, который будет передан следующим слоям модели — это сумма векторов токена и его позиции. Работает лучше, чем тригонометрия, но при этом никак не экстраполируется: так как векторы выучиваемые, то для позиций, превосходящих максимальную тренировочную длину, мы кодировать не умеем — она вне ключей нашего словаря эмбеддингов, так же, как мы не можем закодировать и незнакомый модели токен.

В это же время впервые появилась идея о том, что нам важны не столько абсолютные позиции слов, сколько относительные. Авторы статьи решили кодировать не абсолютную позицию, а только относительную (Relative Position Encoding, или RPE), то есть близость каждой пары токенов. Здесь же появилась идея, что позицонное кодирование стоит добавлять не в момент создания эмбеддингов слов, а на этапе Attention, добавляя знание о позициии в queries и keys.
14.03.25 17:54
0 0

Просто слушать надо не интервью новостным каналам.
Это из той области что и "надо просто уметь спрашивать".
Я же говорю про обычного человека, а не про того, который изучает эти нейросети, следит за ними и специфически их использует. Обычный человек не ищет какие-то специальные интервью, он живет в общественном информационном поле. А там именно тот хайп вокруг ИИ про который я говорю.
14.03.25 17:55
0 1

Пример того как звучит обсуждение нейронок не в маркетинговом варианте
Это же обсуждения между пользователями-специалистами. А я о том что говорят обычным людям продавцы ИИ.
14.03.25 17:57
0 0

У меня просто такое впечатление сложилось
Своим примером я хотел сказать, что человек способен заглянуть за пределы своих знаний. А нейросеть - нет. И пока мы не знаем - почему, ни о каком "искусственном интеллекте" речи быть не может. Как можно создать искусственный интеллект не понимая, как работает наш собственный?
14.03.25 18:01
0 0

Но можно, если потрудиться.
Да не об этом речь. Навороченный кухонный комбайн сильно упростит жизнь на кухне, но готовить блюда молекулярной кухни вы после его приобретения не начнёте.
14.03.25 18:04
0 1

Утомил этот хайп , который на 99.9 основан на абсолютно маркетинговым термином "ИИ ")
никакого ИИ нет , - все гроки и чатгпт и иже с ними , это не более чем продвинутая и дружелюбная к пользователю СУБД ...
100%

"Как построить свою экспертную систему"
Автор: Нейлор Крис
Издание 1991

lib.ysu.am
14.03.25 18:18
2 0

Вы хотя бы открывали эту книгу?
14.03.25 18:41
0 0

Раз эта штука умеет подумать
Но она не умеет думать, в этом и "небольшая" проблема.
14.03.25 18:45
0 2

А паровая турбина - из Александрии I в. до н.э.
Предлагаешь обождать две тыщщи лет?
14.03.25 19:16
2 0

ни что машины без водителя в обозримом будущем не начнут ездить.
У меня позавчера были три поездки в Сан Франциско на Waymo. Вы продолжайте жить в вашей параллельной реальности.
14.03.25 19:25
0 2

все гроки и чатгпт и иже с ними , это не более чем продвинутая и дружелюбная к пользователю СУБД ...
с точки зрения принципов работы всего этого и маркетинга - EXCEL тоже ИИ ))
В БД и есть четко прописанные алгоритмы. И они тебе на одинаковый запрос вегда выдадут одинаковые данные. Модели же используют вероятности. Причем тот-же ГПТ к наиболее вероятным сочтаниям и последовательностям периодически добавляет что-то случайное. Как раз чтобы имитировать индивидуальность.
14.03.25 19:50
0 0

Может ли существовать интеллект без самосознания?
Хороший вопрос. Сделают АГИ - узнаем. Прецедентов не было, можно лишь гадать.
14.03.25 20:50
0 0

Смотря что такое "интеллект"
Это то, что у нас есть, а у бездушной железяки никогда не будет. Подробности всегда можно подогнать под актуальную имплементацию бездушной железяки. Если лень подгонять - можно прямо у нее спросить. 😄
14.03.25 21:45
0 0

практически не использую LLM для поиска именно по этой причине- галлюцинации и необходимость доп.проверок. пока мне хватает гугла, чтобы быстро найти требуемое. кстати, Perplexity, как поиск не зашёл мне лично, возможно, надо будет целенаправленно погрузиться в особенности его использования.
чаще всего использую chatgpt и claude для своих домашних мини-проектов. что то быстро накодить, адаптировать простой код телеграм-бота, какие то макросы-формулы для офиса по работе т.д.
второе применение- рецепты и подсказки для питания. кидаешь список продуктов, специй, которые в наличии и просишь сделать меню на несколько дней, чтобы было разнообразным и "подъесть остатки" ).
недавно попробовал в качестве юриста - составить претензию в адрес управляющей компании. скинул все факты, которые имел, мысли и требования, попросил оформить со ссылками на нормативные акты. скажем так, статьи и пункты указал chatgpt достаточно качественно, в одном месте только ошибся, я бы так не составил, а за претензию 5к рублей не меньше просит юрист с непредсказуемым качеством).
возможно когда то поиск также будет лучше осуществлять с ними, но сейчас они явно не для этого заточены.
14.03.25 12:41
0 4

нашёл, но не пробовал рецепты для использования Perplexity. может кому то помогут.
14.03.25 16:10
0 0

AI, благодаря человекам-учителям, станут умнее, но не факт, что правдивее.
И вряд ли терпимее к более глупым своим конкурентам - людям.
Где вы, 3 закона Айзека, когда так нужны?
14.03.25 12:19
1 1

станут умнее, но не факт, что правдивее.
[...]
Где вы, 3 закона Айзека, когда так нужны?
Рассказ Азимова, в котором робот не мог не врать именно в силу 3 законов, прошел мимо вас?
14.03.25 12:34
2 2

Где вы, 3 закона Айзека, когда так нужны?
"Законы" Айзека - это на самом деле этические нормы. Они не формализуются логически и противоречат друг другу. Собственно, Азимов вовсе не про роботов писал. 😄
14.03.25 12:59
0 2

Ну дык в них изначально заложен способ разрешения конфликтов, если один противоречит другому.
Mit
14.03.25 13:45
0 1

Ну дык в них изначально заложен способ разрешения конфликтов, если один противоречит другому.
Не в них. В особенностях человеческого интеллекта, способного манипулировать этическими нормами, трактуя их от обстоятельств, расширяя и сужая их по своему усмотрению. Логическая система так не может. Собственно множество сюжетов произведений, где упоминаются "Три закона", построены именно на их прямых логических противоречиях.
14.03.25 14:03
0 1

Робот Жискар, изобретя нулевой закон, благополучно похерил остальные три 😄
14.03.25 14:23
0 0

Рассказ Азимова, в котором робот не мог не врать именно в силу 3 законов, прошел мимо вас?
"Лжец"? Нет, не прошёл. Более того, я даже видел его экранизацию в советском телесериале-антологии «Этот фантастический мир», где его играл Б.Плотников.
И он только подтверждает факт, что робот - AI, который пытается лгать - пусть даже из лучших побуждений под эгидой Первого закона нашего Азимова - не может и не должен функционировать, так как своей ложью причиняет ещё больший вред людям и этим нарушает тот же Первый закон роботехники.

Так что, как говорила Д.Амбридж, "Я не должен лгать!"
14.03.25 14:59
2 2

Так что, как говорила Д.Амбридж, "Я не должен лгать!"
Спасибо за образцовый пример положительного персонажа!
14.03.25 21:37
0 0

То есть получается поиск с помощью нейросетей тупо на 60% менее эффективен, чем просто поиск с использованием обычных поисковых систем? Интересно.
14.03.25 12:01
0 4

просто поиск с использованием обычных поисковых систем
тот же Гугл поиск намеренно испорчен двумя индусами в руководстве компании. Работает отвратительно последние года 4.
14.03.25 12:15
4 4

Вывод о том, что поиск с использованием нейросетей «на 60% менее эффективен», является упрощённым и не совсем корректным, поскольку текст говорит именно о проценте допущенных ошибок, а не о сравнительной эффективности поиска в целом. Исследование показало, что в совокупности ответы ИИ-систем ошибочны в 60% случаев по выбранным критериям (указание статьи, новостной организации и URL). Однако это не означает прямого сравнения с обычными поисковыми системами, поскольку исследование основывалось на проверке точности результатов, а не на измерении эффективности поиска в широком смысле.
14.03.25 12:16
0 3

тот же Гугл поиск <...> Работает отвратительно последние года 4.
А что, есть какие-то интернациональные поисковые системы лучше?
14.03.25 12:17
0 0

Однако это не означает прямого сравнения с обычными поисковыми системами
Как не означает? Сказано:
Они убедились, что каждая статья попадает в первые три результата поиска Google при использовании цитируемого отрывка из статьи.
Разве это не значит, что Гугл на тех же самых запросах показал 100% эффективность? Ну ладно, ~98%, 100 было бы если бы все статьи попадали в первый результат

эффективности поиска в широком смысле
А это что такое? Разве эффективность это не соотношение "нашел-не нашел"?
14.03.25 12:25
2 1

Нейросети это не поиск. Кроме Perplexity и <*>Search которые поиск + нейронка сверху. Точно так же как спросить человека назвать точный URL и источник новости и он скорее всего ошибется.
14.03.25 12:26
1 5

Тот факт, что Google показывал каждую статью в топ-3 результатов при поиске по цитате, использовался в исследовании как критерий релевантности и базовая проверка наличия нужного материала. Однако это не означает, что Google обладает абсолютной 100% эффективностью или что его можно напрямую сравнивать с системами ИИ по параметру «нашёл/не нашёл».

Исследователи оценивали не только факт нахождения материала, но и корректность представленной информации по трём параметрам: название статьи, новостное издание и URL. То есть «эффективность» в данном контексте — это не просто бинарное «нашёл или не нашёл», а качество и точность информации, которую выдаёт система. Поэтому вывод о 60% ошибочности ИИ-систем относится к тому, как часто они предоставляют неверные или неполные данные, а не к сравнению общего уровня релевантности между Google и поисковыми системами с ИИ.
14.03.25 12:36
0 3

Нейросети это не поиск. Кроме Perplexity и <*>Search которые поиск + нейронка сверху. Точно так же как спросить человека назвать точный URL и источник новости и он скорее всего ошибется.
Заявляется, что и поиск тоже. Зачем мне поисковая система, которая ничем от меня не отличается и ищет так же плохо как и я сам?
14.03.25 13:05
1 2

тот же Гугл поиск намеренно испорчен
Если прибыль выросла - значит, не испорчен, а оптимизирован.
14.03.25 13:06
0 5

А что, есть какие-то интернациональные поисковые системы лучше?
Были. 😄 Google-поиск образца года, предшествующего тому, как его испортили.
14.03.25 13:07
0 3

ищет так же плохо как и я сам?
Неправда.
Она ищет хуже тебя.
И в этом — её преимущество.
14.03.25 13:08
1 1

То есть «эффективность» в данном контексте — это не просто бинарное «нашёл или не нашёл»
Так и Гугл не написал просто: "о, я нашел" и все. Он по куску статьи выдал искомый текст, его заголовок и урл. Собственно то, что и требовалось в запросе. Я просто не могу понять, зачем прикручивать нейронку к поиску, если она только ухудшает получаемый результат. Причем, как я понял, не просто ухудшает, а еще и забивает его шумом "сфабрикованной информации".
14.03.25 13:12
0 2

По крайней мере на русском Яндекс ищет в разы лучше. И даже если просто нудно найти информацию, объясняющую что-то - тоже. Поиск Гугла стал отвратителен.
14.03.25 13:13
1 2

Были. 😄 Google-поиск образца года, предшествующего тому, как его испортили.
Увы, я не могу мотаться в прошлое каждый раз, когда мне нужно что-то найти в Гугле. У "Института Времени" совершенно нецензурные расценки за переброску.
14.03.25 13:20
1 3

По крайней мере на русском Яндекс ищет в разы лучше.
А что, есть какие-то интернациональные поисковые системы лучше?
Общеизвестно, что и Байда, и Яндекс давно обошли Гугл в национальном поиске.
14.03.25 13:23
0 2

А что, есть какие-то интернациональные поисковые системы лучше?
В кириллическом сегменте Яндекс поиск однозначно лучше Гугла, а в англоязычном полноценной альтернативы Гуглу, к сожалению, не просматривается.
Оттого и бесит эта преступная деятельность нового руководства поисковика Гугла, в погоне за ростом прибылей сделавшего из него в первую очередь инструмент для продвижения товаров и услуг. В ущерб главной функции - релевантного поиска.
14.03.25 15:09
1 0

Если прибыль выросла - значит, не испорчен, а оптимизирован.
"Рыночек порешал", как говорят за поребриком 😄
14.03.25 15:11
1 1

Оттого и бесит эта преступная деятельность нового руководства поисковика Гугла, в погоне за ростом прибылей сделавшего из него в первую очередь инструмент для продвижения товаров и услуг.
Ну! Это все равно, что бесится от законов физики. Так было всегда - неуемное стремление монетизировать успешный сервис приводило к потере удобства и функциональности, потере интереса пользователей, а потом неизвестно откуда выскочивший стартап прописывал финальный пинок. Так ушёл в небытие некогда великий и могучий Яху. Так, видимо, когда-нибудь уйдет и Гугл.
14.03.25 15:25
1 3

Между тем в замке у шефа...
ИИ-апокалипсис своими руками.
Эрик Шмидт, бывший генеральный директор Google, и Александр Ван, основатель Scale AI, являются соавторами документа под названием «Стратегия сверхинтеллекта». В нём они предупреждают о рисках создания правительства США Манхэттенского проекта для так называемого общего искусственного интеллекта (AGI). Они считают, что такой проект может быстро выйти из-под контроля и привести к глобальным последствиям.
14.03.25 11:54
0 0

Походу они таки посмотрели Терминатора.
14.03.25 12:08
0 5

Скорее Person of Interest)

Person of Interest)
Эх, вот были же сериалы!..

Нет Клода. А он-то как раз интересует больше всего. У меня сложилось впечатление, что он абсолютно чётко видит весь контекст задачи и часто подсказывает стратегически оптимальные следующие ходы.
14.03.25 11:53
0 4

У Клода нет поиска по интернет страницам.
А Perplexity это не нейронка а сервис поиска использующий другие нейронки в частности Дипсик.
А Copilot это Чатгпт.
14.03.25 11:59
0 4

Да, немаловажная деталь - речь идёт о Соннете.
14.03.25 12:01
0 0

| У Клода нет поиска по интернет страницам.
Точно. Не в тему написал.
14.03.25 12:05
0 0

Июньский, октябрьский или ваще 3.7?
😁
14.03.25 12:08
0 0

Июньский, октябрьский или ваще 3.7?
Все, кроме Хайку, который на порядок глупее.
14.03.25 12:17
0 0

Gemini. Злой искусственный интеллект и программисты, оставшиеся без работы.
14.03.25 11:36
2 3

программисты, оставшиеся без работы
должны быть изображенными в виде индусов, а не корейцев и японцев 😄

Подозреваю, что если спросить ОпенАИ или хАИ о исследователях такой компании, мы услышим много нелестных фраз.
И ведь будут правы! )
14.03.25 11:31
0 0

В совокупности поисковые системы ИИ ошибаются в 60% случаев. Более того, эти неверные результаты подкреплялись "уверенностью" ИИ в них.
Что интересно, даже признав свою неправоту, ChatGPT дополняет это признание еще более сфабрикованной информацией. Похоже, что ИИ запрограммирован на то, чтобы любой ценой отвечать на каждый запрос пользователя.
на текущий момент всё так.
Но человеки допилят AI, рано или поздно.
И конец "кожаным мешкам" 😄
14.03.25 11:30
2 1

И конец "кожаным мешкам"
Таки будут бегать вместо нас?
14.03.25 11:55
0 1

Таки будут бегать вместо нас?
Таки мы будем бегать от них 😄 но недалеко и недолго.
14.03.25 12:17
0 4

Но человеки допилят AI, рано или поздно.
а что бля если нет? (с)
Может всё это хоть конечно и изменится, но так и останется таким говорливым и часто ошибающимся помощником?
14.03.25 12:22
0 1

а что бля если нет? (с)
Этого, конечно, нельзя полностью исключать. Если нет, мы будем спасены.
14.03.25 13:10
0 0

Таки мы будем бегать от них 😄 но недалеко и недолго.
Подождите, Т1000 оказался не настолько хорош в беге в предыдущей части. Ему надо было больше тренироваться!
14.03.25 14:11
0 3

останется таким говорливым и часто ошибающимся помощником?
Нафиг он тогда истории нужен? Разве что в качестве сайдкика.
ИскИн с зародыша подчиняется законам эволюции, плюс неестественный отбор создателями плюс турборазвитие учителями-человеками на базе накопленной за века людьми горы информации.
Нет, судя по темпам развития AI, нас ещё ждут большие сюрпризы, о чём и предупреждают мудрые люди уже сейчас.
14.03.25 15:36
0 0

а что бля если нет? (с)
а что бля если да?
14.03.25 16:04
1 1

а что бля если да?
Это и так из каждого утюга вещают продавцы ИИ.
14.03.25 18:02
0 0

И снова - перед вами подмастерье, старательный, но неопытный. Не спрашивайте у него то, ответ на что вы не знаете сами. Поручайте ему СДЕЛАТЬ то, что вам самому делать лень или некогда.
14.03.25 11:09
0 23

Поручайте ему СДЕЛАТЬ то, что вам самому делать лень или некогда.
Бегать по утрам?

Бегать по утрам?
Похудеть.

перед вами подмастерье, старательный, но неопытный.
Пока что это классический "эвристический агрегат Эдельвейса Захаровича Машкина"
Я чувствую его тааакому научат пользователи, что он сам себя отформатирует.
Jks
14.03.25 11:24
2 1

Бегать по утрам?
Уже полгода, как записался на фитнес - и никакого прогресса! Завтра схожу туда лично, узнаю в чем дело.

Бегать по утрам?
Перестать пить коньяк по утрам.

Перестать пить коньяк по утрам.
Пусть хотя бы полку на кухне за меня прибьет.
14.03.25 16:21
0 1

Mission impossible.
14.03.25 16:33
0 1

И при этом один из популярных запросов "создание схемы торгов на бирже" 😁
14.03.25 11:07
0 3

ИИ адаптируется к нам, а мы к его особенностям. Я уже понимаю где ему доверять (но проверять!) можно, а какие запросы лучше даже не пытаться - наврёт и не покраснеет.

Так или иначе он здорово помогает мне с рутинными процедурами.
14.03.25 11:06
0 10
Теги
Сортировать по алфавиту или записям
BLM 21
Calella 146
exler.ru 284
авто 450
видео 4137
вино 360