{"id":14291,"url":"\/distributions\/14291\/click?bit=1&hash=257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","hash":"257d5375fbb462be671b713a7a4184bd5d4f9c6ce46e0d204104db0e88eadadd","title":"\u0420\u0435\u043a\u043b\u0430\u043c\u0430 \u043d\u0430 Ozon \u0434\u043b\u044f \u0442\u0435\u0445, \u043a\u0442\u043e \u043d\u0438\u0447\u0435\u0433\u043e \u0442\u0430\u043c \u043d\u0435 \u043f\u0440\u043e\u0434\u0430\u0451\u0442","buttonText":"","imageUuid":""}

Как эксперты в области искусственного интеллекта используют GPT-4

Прошлая неделя была насыщенной. Несколько ведущих компаний, занимающихся разработкой ИИ, выпустили крупные продукты. Google заявил, что предоставляет разработчикам доступ к своим языковым моделям ИИ, а стартап Anthropic представил ИИ-ассистента Claude. Но один анонс затмил их всех: новая мультимодальная большая языковая модель GPT-4 от OpenAI. Уильям Дуглас Хейвен получил эксклюзивный предварительный просмотр. Читайте о его первых впечатлениях. В отличие от вирусного хита OpenAI ChatGPT, который находится в свободном доступе для широкой публики, GPT-4 пока доступна только для разработчиков. Это все еще ранние дни для технологии, и потребуется некоторое время, чтобы она стала использоваться в новых продуктах и услугах. Тем не менее, люди уже тестируют ее возможности в открытом доступе. Вот мои лучшие примеры того, как они это делают.

Продвижение

В примере, который стал вирусным в Twitter, Джексон Грейтхаус Фолл, дизайнер бренда, попросил GPT-4 заработать как можно больше денег с начальным бюджетом в 100 долларов. По словам Фолла, он действовал как "человек-связной" и покупал все, что ему говорила компьютерная программа.GPT-4 предложил ему создать сайт партнерского маркетинга, чтобы зарабатывать деньги, продвигая ссылки на другие товары (в данном случае экологически чистые).

Затем Фолл попросил GPT-4 придумать подсказки, которые позволили бы ему создать логотип с помощью системы искусственного интеллекта OpenAI DALL-E 2. Фолл также попросил GPT-4 генерировать контент и выделять деньги на рекламу в социальных сетях. Этот трюк привлек большое внимание людей в социальных сетях, желающих инвестировать в его маркетинговый бизнес, вдохновленный GPT-4, и в итоге Фолл получил на руки $1 378,84 наличными.

Очевидно, что это рекламный трюк, но это также отличный пример того, как система искусственного интеллекта может быть использована для того, чтобы помочь людям придумывать идеи.

Продуктивность

Крупные технологические компании очень хотят, чтобы вы использовали ИИ на работе. Вероятно, именно таким образом большинство людей испытают и поиграют с новой технологией. Microsoft хочет, чтобы вы использовали GPT-4 в своем пакете Office для резюмирования документов и помощи в презентациях PowerPoint - как мы и предсказывали в январе, что уже кажется вечностью.

Не так уж случайно компания Google объявила, что будет внедрять аналогичную технологию искусственного интеллекта в свои офисные продукты, включая Google Docs и Gmail. Это поможет людям составлять электронные письма, вычитывать тексты и генерировать изображения для презентаций.

Здравоохранение

Я поговорил с Нихилом Будумой и Майком Нг, соучредителями компании Ambience Health, которая финансируется OpenAI. Стартап использует GPT-4 для создания медицинской документации на основе разговоров между врачом и пациентом. Их идея заключается в том, что это облегчит нагрузку на врачей, устранив такие утомительные части работы, как ввод данных.

Будума говорит, что GPT-4 гораздо лучше выполняет инструкции, чем его предшественники. Но пока неясно, насколько хорошо он будет работать в такой сфере, как здравоохранение, где точность действительно имеет значение. OpenAI утверждает, что ей удалось устранить некоторые недостатки, которыми, как известно, обладают языковые модели ИИ, но GPT-4 все еще не полностью свободен от них. Он выдумывает всякую ерунду и уверенно выдает ложь за факты. Он все еще необъективен. Поэтому единственный способ безопасного применения этих моделей - убедиться, что человеческие эксперты управляют ими и исправляют их ошибки, говорит Нг.

Написание кода

Арвинд Нараянан, профессор информатики Принстонского университета, говорит, что ему потребовалось менее 10 минут, чтобы заставить GPT-4 генерировать код, преобразующий URL в цитаты.

Нараянан говорит, что он тестировал инструменты ИИ для генерации текста, изображений и кода, и что он считает генерацию кода наиболее полезным приложением. "Я думаю, что польза от генерации кода на основе LLM [большой языковой модели] - это и экономия времени, и психологическая выгода", - написал он в Твиттере.

В демонстрационном ролике соучредитель OpenAI Грег Брокман использовал GPT-4 для создания веб-сайта на основе очень простого изображения дизайна, который он нарисовал на салфетке. Как отмечает Нараянан, именно в этом и заключается сила этих систем ИИ: автоматизация рутинных, не требующих больших затрат времени задач.

Написание книг
Рид Хоффман, соучредитель и исполнительный председатель совета директоров LinkedIn и один из первых инвесторов OpenAI, говорит, что использовал GPT-4 для написания книги под названием "Экспромт: Усиление нашей человечности с помощью искусственного интеллекта". Хоффман считает, что это первая книга, написанная GPT-4. (Его предшественник ChatGPT использовался для создания множества книг).

Хоффман получил доступ к системе прошлым летом и с тех пор пишет свои мысли о различных способах использования модели ИИ в образовании, искусстве, системе правосудия, журналистике и т.д. В книге, которая включает в себя скопированные выдержки из его взаимодействия с системой, он излагает свое видение будущего ИИ, использует GPT-4 в качестве помощника для написания новых идей и анализирует его ответы.

Небольшое заключительное слово...

GPT-4 - это новая блестящая игрушка для сообщества ИИ. Невозможно отрицать, что это мощная вспомогательная технология, которая может помочь нам придумывать идеи, сгущать текст, объяснять концепции и автоматизировать рутинные задачи. Это долгожданное событие, особенно для "белых воротничков", работающих в сфере знаний.

Однако примечательно, что сама OpenAI призывает к осторожности в использовании модели и предупреждает, что она представляет собой несколько рисков, включая нарушение неприкосновенности частной жизни, обман людей, заставляя их думать, что это человек, и создание вредоносного контента. Модель также может быть использована для других рискованных действий, с которыми мы еще не сталкивались. Так что, конечно, радуйтесь, но давайте не будем ослеплены шумихой. На данный момент ничто не мешает людям использовать эти новые мощные модели для совершения вредных действий, и ничто не может привлечь их к ответственности, если они это сделают.

Более глубокое обучение

Китайский технологический гигант Baidu только что выпустил свой ответ на ChatGPT

Итак. Много. Чатботов. Последним игроком, вступившим в игру чатботов с искусственным интеллектом, стал китайский технологический гигант Baidu. В конце прошлой недели Baidu представила новую большую языковую модель под названием Ernie Bot, которая может решать математические вопросы, писать маркетинговую копию, отвечать на вопросы о китайской литературе и генерировать мультимедийные ответы.

Китайская альтернатива: Ernie Bot (название расшифровывается как "Enhanced Representation from kNowledge IntEgration"; его китайское название 文心一言, или Wenxin Yiyan) особенно хорошо справляется с задачами, характерными для китайской культуры, например, с объяснением исторического факта или написанием традиционного стихотворения. Читайте больше от моей коллеги Цейи Ян.

Еще более глубокое обучение

Языковые модели могут быть способны к "самокоррекции" предубеждений - если вы попросите их об этом

Большие языковые модели печально известны тем, что извергают токсичные предубеждения, благодаря огромному количеству ужасного человеческого контента, на котором они обучаются. Но если модели достаточно велики, они могут быть способны к самокоррекции некоторых из этих предубеждений. Примечательно, что все, что нам нужно сделать, это спросить.

Это новый интересный вывод исследователей из лаборатории искусственного интеллекта Anthropic, которые протестировали множество языковых моделей разного размера и разного объема обучения. Работа поднимает очевидный вопрос о том, можно ли и нужно ли закладывать эту "самокоррекцию" в языковые модели с самого начала.

Биты и байты

Google сделал свои инструменты генеративного ИИ доступными для разработчиков

Еще один анонс Google остался в тени поезда шумихи OpenAI: компания сделала некоторые из своих мощных технологий ИИ доступными для разработчиков через API, который позволяет им создавать продукты на основе своих больших языковых моделей PaLM. (Google)

ИИ для преобразования текста в изображение от Midjourney наконец-то освоил руки

Системы ИИ, генерирующие изображения, в этом году станут до смешного хороши. Пример тому: Последняя итерация системы ИИ Midjourney, работающей по принципу "текст-изображение", теперь может создавать изображения людей с пятью пальцами. До сих пор искалеченные пальцы были признаком того, что изображение было создано компьютерной программой. В результате всего этого становится все труднее и труднее определить, что реально, а что нет. (Ars Technica)

Новый инструмент может позволить художникам защитить свои изображения от использования в ИИ

Исследователи из Чикагского университета выпустили инструмент, который позволяет художникам добавлять к своим работам своего рода защитный цифровой слой, предотвращающий их использование для обучения моделей ИИ, генерирующих изображения. (Чикагский университет)

Runway запустил более мощную систему ИИ для преобразования текста в видео

Прогресс в области генеративного ИИ не стоит на месте Runway, стартап по редактированию видео, который стал одним из создателей модели преобразования текста в изображение Stable Diffusion, выпустил значительное обновление своей генеративной программы для создания видео через месяц после запуска предыдущей версии. Новая модель, названная Gen-2, улучшает Gen-1, о которой Уилл Дуглас Хейв писал здесь, повышая качество генерируемого видео и добавляя возможность генерировать видео с нуля, используя только текстовые подсказки.

0
Комментарии
-3 комментариев
Раскрывать всегда