Главная Новости

Проф. Гаврисяк: ChatGPT очень впечатляет, но технология все еще не является новаторской

Опубликовано: 22.10.2023

Проф. Гаврисяк: ChatGPT очень впечатляет, но технология все еще не является новаторской

Популярный в последнее время чат-бот умеет разговаривать на разные темы, писать статьи, стихи и компьютерные программы. Однако эта программа не ведет рассуждений и не пытается «понять мир», — отмечает доктор Хаб. инженер Петр Гаврисяк, проф. ий технологический университет.

Д-р хаб. инженер Петр Гаврисяк, проф. ий технологический университет — эксперт в области искусственного интеллекта и его применения в обработке текста.

PAP:Недавно появилась новая знаменитость — компьютерный искусственный интеллект ChatGPT. По праву ли она стала «известной»?

Пётр Гаврисяк:Подобные «знаменитости» у нас уже были, хотя и не в таком масштабе. Например, программы, генерирующие графику на основе ее словесного описания — Stable Diffusion или Dall-E; последний был создан той же компанией, которая создала ChatGPT. Если под знаменитостью понимать человека, который просто знаменит тем, что он знаменит, то я бы сказал, что эту программу действительно можно охарактеризовать именно так.

ПАП:Что ты имеешь в виду?

PG:Эта система действительно впечатляет, но в ней нет никаких новых технологий. В его основе лежат идеи, которые уже были известны ранее. Речь идет о предыдущих версиях моделей GPT, а также о решениях, разработанных в Google (чат-боты LaMDA, модель BERT). Сотрудники этой компании, вероятно, могут чувствовать себя обиженными, что вся слава теперь достается кому-то другому. При этом ChatGPT хоть и выглядит эффектно, но не очень понятно, для чего его можно практически использовать.

PAP:Однако впечатление, о котором вы упомянули, должно иметь какое-то основание. Что отличает ChatGPT от аналогичных программ?

PG:Хотя никакой новой парадигмы создания такой системы предложено не было, авторы сделали две вещи. Во-первых, радикально увеличена сложность структуры ИИ, во-вторых, объем данных, используемых в процессе его обучения. Проще говоря, был создан мозг большего размера, который позволял учиться дольше и из большего количества источников.

PAP:Несмотря на этот прогресс, который привел к известности, программа по-прежнему ошибается. Иногда он допускает простые ошибки, иногда говорит ерунду. Видимо, он однажды дал рецепт салата из хлопчатобумажной футболки.

PG:Он делает именно то, для чего был разработан, а именно создает текст. Проблемы могут возникнуть там, где нужно понять, о чем текст. Эта программа не проводит никаких рассуждений, не строит модели реальности и не пытается понять мир. Все, что он делает, это создает последовательности слов, чтобы они были похожи на другие тексты, которые он уже знает, например, записи в Интернете. Конечно, не без некоторых ограничений. OpenAI позаботилась о том, чтобы ChatGPT было сложно писать неуместные высказывания, даже расистские. Такое «поведение» привело, например, к быстрому отключению публичного доступа к более раннему чат-боту Tay от Microsoft. Однако такие меры безопасности создаются вручную, и предсказать все сложно.

Как правило, к сожалению, эти системы пока ненамного умнее первых примитивных чат-ботов 1960-х годов, которые тоже умели иногда сбивать с толку пользователей того времени, притворяясь людьми. Например, система под названием ELIZA оказалась весьма эффективной при выдаче себя за психоаналитика.

PAP:Можно ли это изменить? Например, помимо использования огромного количества текстов такая система могла бы обучать и другим данным, например, видеозаписям? Мог ли он тогда создать определенную модель мира и «знать, о чем говорит» больше? Мог ли он «набраться жизненного опыта»?

PG:Возможно и действительно такие попытки предпринимаются. Однако само по себе увеличение объема данных не решит проблему с достоверностью заявлений чат-бота. Работа над такими системами искусственного интеллекта сопряжена с той же проблемой, с которой пытаются справиться, например, производители автономных автомобилей. Можно сказать, что 90 процентов случаях такие машины справляются хорошо, но оставшиеся 10 процентов на несколько порядков сложнее предыдущей 90-ки. Однако даже такие порой запутанные системы могут найти различное применение.

PAP:Так для чего он может подойти, а для чего, скорее всего, нет?

PG:Я бы побоялся использовать его в качестве поисковой системы в Интернете. Он был бы очень удобен, но он допускает ошибки, иногда даже выдумывает. Однако он может выступать в качестве отличного генератора контента. Например, кто-то может хорошо знать, что хочет передать, но плохо знать язык, на котором хотел бы это написать. Система сможет придать соответствующую форму плохо написанному материалу. Он может поддерживать переводы аналогичным образом. Более того, такие системы уже могут писать простые компьютерные программы.

PAP:Как это работает?

Некоторое время назад Microsoft, а точнее дочерняя компания этой компании, то есть GitHub, представила сервис, основанный на технологии, также используемой ChatGPT, который позволяет программистам «попросить» написать тот простой алгоритм, который им нужен. Во многих случаях такая автоматически сгенерированная программа действительно работает, хотя, к сожалению, мы не можем каждый раз обходиться без проверки ее корректности человеком. Несмотря на это, это по-прежнему блестящий инструмент, способный избавить ИТ-специалистов от простой и утомительной работы.

Говоря об информационных технологиях, потенциальной областью применения могут стать и компьютерные игры.

PG:Как?

Такая система может работать особенно хорошо там, где игрок часто взаимодействует с другими персонажами, управляемыми компьютером. Сегодня большая часть бюджета такой игры тратится на простое написание строк возможного диалога. Это утомительно, и результаты зачастую не самые лучшие. Думаю, ChatGPT прекрасно с этим справился бы, а любые ошибки можно было бы даже использовать для повышения реалистичности персонажей, которые, как и в жизни, иногда лгали.

PAP:Еще на ум приходят маркетинг и пиар...

PG:Это идеальный инструмент для создания, например, рассылок. К сожалению, большинство из нас уже получают много спама, поэтому проблема может усугубиться. Более того, такая программа, как заметили даже ее авторы, может помочь людям писать письма с вымогательством. В настоящее время такое сообщение легко распознать, например, если оно написано на ломаном английском языке, но когда кто-то видит красивые предложения, его легче обмануть.

PAP:Может ли такая программа дополнительно научиться, например, на основе анализа статей по психологии, создавать тексты, которые особенно хорошо манипулируют людьми? Возможно, рекламная индустрия или всякого рода пропагандисты с радостью воспользуются этим.

PG:Это интересная проблема. Я не исключаю, что это возможно, хотя это будет непросто. Говоря о пропаганде, или так называемом информационная война, давайте помнить, что уже имеющиеся инструменты можно использовать, например, для создания фейковых твитов на любом языке. Все подумают, что запись, написанная троллем, исходит от коренного украинца, немца или русского - тогда как автором будет кто-то другой. Угроза, которую представляют инструменты этого типа, недостаточно оценена.

PAP:Начнут ли люди, даже журналисты, терять работу, если ChatGPT напишет статью, требующую нескольких часов работы, за 3 секунды, а потом останется только ее проверить?

PG:В группе риска могут оказаться люди, создающие контент, наименее желаемый читателями, который в основном служит для позиционирования веб-сайта в Интернете и не содержит ценного контента. Зачастую много подобных материалов по заданию пишут низкооплачиваемые люди. Инструменты, о которых мы говорим, могут быть использованы в этой области. Однако людям, создающим качественный или даже просто относительно хороший контент, беспокоиться не о чем. Более того, может даже оказаться, что такие программы будут поддерживать их работу.

PAP:Обобщая и принимая во внимание возможности искусственного интеллекта, а также текущие проблемы - я спрошу: находимся ли мы на пороге эпохи, когда ИИ будет диагностировать болезни, управлять автомобилями, кораблями и самолеты,и научные исследования проводить?она выносила решения в судах?

PG:Мы сейчас говорим о так называемых «сильный» искусственный интеллект, который полностью заменит человека. Уже в 1960-е, а затем в 1970-е и 1980-е годы говорили, что он не за горами и будет построен через десятилетие. Однако эта граница продолжала перемещаться в следующее десятилетие. Сейчас, из-за мощных возможностей работы с текстом, о которых мы говорим, некоторые говорят, что такой ИИ будет создан в ближайшие 10 лет. То же самое было и с автономными автомобилями. Казалось, что через 5 или 10 лет они станут стандартными, а пока они по-прежнему могут полностью автономно ездить только на избранных участках магистралей или, самое большее, помогать с парковкой. На мой взгляд, сейчас еще не тот момент и здесь нужен настоящий прорыв. Может быть, это произойдет через 300 лет, может быть, через 100, может быть, через 50?

Однако прогресс все еще имеет место. Даже если такой универсальный, «сильный» искусственный интеллект появится не скоро, я убежден, что мы будем находить все больше и больше мест, где эти слабые, специализированные методы ИИ, которые наши потомки, вероятно, назовут примитивными, смогут брать на себя более обременительные и утомительные задачи. от людей..

Наука в , Марек Матач

приятель / Зан /

rss