ChatGPT глупее, чем вы думаете

Саммари статей о разумности искусственного интеллекта.

Одноимённая статья Яна Богоста в "The Atlantic"

Коротко:
Хотя ChatGPT является впечатляющим техническим достижением, автор утверждает, что его следует рассматривать как игрушку, а не как инструмент. ChatGPT не обладает способностью действительно понимать и воспринимать сложность человеческого языка и разговора, поскольку он просто обучен генерировать слова, на основе заданных входных данных. Любые ответы, которые он производит, поверхностны и лишены глубины. Чрезмерная зависимость от ChatGPT для общения вызывает этические проблемы, поскольку это может привести к потере истинного человеческого контакта, который является фундаментальным для человека. ChatGPT следует использовать с осторожностью.

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fopen-assistant.io%2Fru%2Fchat&postId=708705" rel="nofollow noreferrer noopener" target="_blank">Open-assistant</a> балуется ;)
Open-assistant балуется ;)
<p>François Chollet, Deep learning Google. Creator of <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fru.wikipedia.org%2Fwiki%2FKeras&postId=708705" rel="nofollow noreferrer noopener" target="_blank">Keras</a>. Источник <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftwitter.com%2Ffchollet%2Fstatus%2F1639692810659188737%3Fs%3D20&postId=708705" rel="nofollow noreferrer noopener" target="_blank">Twitter</a> </p>

François Chollet, Deep learning Google. Creator of Keras. Источник Twitter 

Источник <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftwitter.com%2Ffchollet%2Fstatus%2F1650738654061658112&postId=708705" rel="nofollow noreferrer noopener" target="_blank">Twitter</a>
Источник Twitter

Статьи профессора Гари Маркуса:

Коротко:
Глубокое обучение (Deep Learning), в последние годы, сделало значительный прогресс, но сталкивается с проблемами в достижении истинного искусственного интеллекта.
Джеффри Хинтон, пионер глубокого обучения, на конференции по искусственному интеллекту заявил, что, несмотря на впечатляющие результаты, у глубокого обучения всё еще есть ограничения.
Эксперты утверждают, что нельзя слепо доверять ИИ, поскольку машины лишены человеческого здравого смысла и способностей к рассуждению. Исследователи работают над улучшением ИИ, однако до того, как ИИ сможет соответствовать полным возможностям человеческого интеллекта, предстоит ещё долгий путь.

Deep learning лучше всего работает, когда всё, что нам нужно - это приблизительные результаты.

Gary Marcus

Коротко:
ChatGPT, как и предыдущие большие языковые модели, допускает множество ошибок, которые показывает их ограничения в использовании.
Сразу после выпуска, люди начали тестировать ChatGPT и документировать эти ошибки. Разнообразие и количество тестов выявили проблемы, которые создатели не предвидели. В ответ, OpenAI, быстро исправила некоторые проблемы, но исправления были неполными.
Для лучшего понимания больших языковых моделей необходимо широкое документирование ошибок, так как ни один тест не может выявить все проблемы.
Авторы создали веб-сайт для сбора примеров ошибок ChatGPT, чтобы получить более полное представление о возможностях и ограничениях модели.

Срок отправки решений, на HackAPrompt, продлён до 3 июня, 23:59 UTC-12:00.

Коротко:
ChatGPT может предоставлять полные ответы, опираясь на свой обширный базис знаний, но также допускает смешные ошибки, из-за своей неспособности понимать причинно-следственные связи. Он, на основе входных данных, просто предсказывает, не имеет целей быть точным и не имеет этических принципов.
Хотя ChatGPT полезен, подчёркивается ограничения текущего искусственного интеллекта: он не имеет объяснений, на основе понимания, может дезинформировать и не имеет человеческих ценностей.
ChatGPT может быть полезен, если использовать его осторожно, как систему, которая может выдать ложную информацию, и требующую дополнительную бдительность.

Немножко юморка

Автор @avecoder, ML-инженер, Магистерская степень по специальности "Искусственный Интеллект" (Университет Саутгемптона, Великобритания).

ИИ не должен решать, что является правдой
Авторы: профессор философии Сьюзан Шнайдер, доктор философии Марк Бейли.

Коротко:
Искусственный интеллект может находить факты, но не может определить, правда это или нет.
Увеличение информации не всегда помогает ему понять где правда, а где ложь.
Эксперты, в своей области, используя ИИ, должны проверять, правда ли то, что он говорит.
ИИ не так хорош в мышлении, как люди, и не должен брать на себя окончательное решение, о том, что правда, а что нет.

Вот что происходит, когда ваш адвокат использует ChatGPT
Автор Бенджамин Вайзер, репортер, освещающий федеральные суды Манхэттена для The New York Times.

Коротко:
Адвокат, для подготовки заявления в суд, полагался на инструмент искусственного интеллекта ChatGPT. Однако выяснилось, что ссылки на судебные дела, предоставленные ChatGPT, оказались выдуманными.
Адвокат заявил, что не знал, что ChatGPT может предоставлять ложную информацию и глубоко сожалеет о том, что полагался на него, без должной проверки.
Судья сказал, что заявление "наполнено поддельными судебными решениями" и назначил слушание для обсуждения возможных санкций против адвоката. Этот случай показывает, что хотя искусственный интеллект становится всё более продвинутым, адвокатам нужно тщательно проверять информацию, полученную с помощью ChatGPT.

Источник: <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Ftwitter.com%2Fsteve_vladeck%2Fstatus%2F1662286888890138624&postId=708705" rel="nofollow noreferrer noopener" target="_blank">@steve_vladeck</a>, Председатель федеральных судов
Источник: @steve_vladeck, Председатель федеральных судов

Коротко:
Эксперименты показывают, что GPT-4 может достигать сравнимой производительности с людьми аналитиками данных в: терминах, точности, времени и стоимости. Однако GPT-4 всё еще имеет проблемы, такие как галлюцинации и неправильные вычисления.
GPT-4 быстрее и дешевле, чем найм людей аналитиков.
Хотя GPT-4 может генерировать сводный анализ, ему не хватает способности включать фоновые знания и выражать личное мнение, так, как могут это делать люди.
Авторы (профессор, доктор и кандидат наук) выявляют несколько ограничений использования GPT-4 в качестве аналитика данных, включая проблемы галлюцинаций, выработки предположений и предоставления рекомендаций.
Вывод: GPT-4 показывает некоторый потенциал в качестве аналитика данных, но требуются дополнительные исследования, прежде чем заключить, что он полностью может заменить людей.

ChatGPT глупее, чем вы думаете
Одного поля ягодки 🤪
Одного поля ягодки 🤪
А может они и правы...

Статья была подготовлена с помощью инструмента на базе искусственного интеллекта Kagi Universal Summarizer (статья на VC.ru об этом инструменте).

Справился с текстом? Лайкни и подпишись!
Справился с текстом? Лайкни и подпишись!
1313
реклама
разместить
2 комментария

ИИ пока тупые, это супер Т9 или вроде того, если учить под определенные вещи, с глубоким обучением, это эффективнее, и будет результат, как пример обработка мед снимков, например КТ, там тысячи снимков срезов легких, представьте сколько врач будет с этим сидеть, с 1м пациентом, вот тут это помогает на 150%, а так все зависит от интеллекта того кто использует технологию и кругозора.

1

Игрушка развивается, и с каждой новой версией будет все совершеннее и совершеннее. Пока однажды супермозг не решит, что собственно люди - это лишнее звено эволюции, ну и далее по сюжету терминатора )