Блог

Искусственный интеллект ChatGPT. Как пользоваться и что она умеет

Искусственный интеллект ChatGPT. Как пользоваться и что она умеет

ChatGPT – это чат-бот, базирующийся на последней версии нейросетевой модели GPT-3.5, разработанной компанией OpenAI.

OpenAI была основана в 2015 году, архитектором которой является Илон Маск, однако позже он отошел от активного участия. Сотрудничество OpenAI с Microsoft привело к интеграции нейросети в браузер Bing. С 30 ноября 2022 года пользователи получили свободный доступ к ChatGPT для предоставления обратной связи.

Несмотря на то, что основная обучающая выборка состоит из англоязычных текстов, ChatGPT способен взаимодействовать на многих языках, включая русский. К сожалению, из-за санкций доступ к ChatGPT заблокирован для жителей России, Китая, Беларуси, Венесуэлы, Ирана и нескольких других стран.

Важно отметить, что ChatGPT имеет широкий спектр применений. Он может использоваться в образовании, медицине, технологиях, а также в других областях. Тем не менее, существуют этические вопросы, связанные с его использованием, такие как угрозы конфиденциальности данных и распространение дезинформации.

Блокировка доступа к ChatGPT в определенных странах поднимает вопросы о доступе к технологиям и свободе информации. Это также подчеркивает необходимость разработки более этичных и универсальных подходов к регулированию и использованию искусственного интеллекта.

Удивительные возможности ChatGPT

С момента своего появления в открытом доступе ученые, программисты и энтузиасты активно изучают потенциал ChatGPT. Известны работы, в которых нейросеть предоставлялась для решения задач, обычно отведенных для оценки квалификации людей в различных профессиональных сферах.

Вот лишь несколько наиболее выдающихся примеров:

  1. Успешное прохождение экзамена на адвоката: ChatGPT продемонстрировал высокий уровень компетенции, правильно ответив на 88% вопросов, что в некоторых случаях эквивалентно прохождению экзамена для юристов.
  2. Прохождение бизнес-тестов для MBA: Нейросеть продемонстрировала способность успешно справиться с бизнес-тестами, необходимыми для получения степени MBA.
  3. Сдача медицинского экзамена в США без предварительной подготовки: Это вызвало особый интерес, учитывая, что ChatGPT обошел специально обученного на медицинских текстах аналога PubMedGPT.

Эти достижения заставляют задуматься о возможностях и ограничениях искусственного интеллекта. Помимо перечисленных примеров, ChatGPT успешно справляется с генерацией студенческих эссе, прохождением собеседований, созданием музыки, игрой в шахматы, программированием (включая кодирование нейронных сетей) и формулированием запросов для других искусственных интеллектов, генерирующих изображения.

Нейросеть GPT-3.5, согласно заявлениям OpenAI, в основном основана на тех же подходах, что и модель InstructGPT, представленная весной 2022 года.

Основное отличие и преимущество новых языковых моделей заключается не столько в их архитектуре (по-видимому, GPT-3.5 не сильно отличается от своей предшественницы GPT-3 с её 175 миллиардами параметров), сколько в новом методе обучения, получившем название "Обучение с подкреплением на основе обратной связи от людей" (RLHF).

Этот метод основан на участии множества реальных людей-учителей в обучении нейронной сети, которые на начальном этапе демонстрируют ей, как вести диалог. Десятки специалистов вручную составили набор вопросов и ответов, которые "подали" GPT-3.5 для тонкой настройки модели. Затем они продолжили свою работу, оценивая сгенерированные нейросетью диалоги и ранжируя их по качеству ответов.

Таким образом, внутри GPT-3.5 сформировалось скрытое представление о том, какие ответы считаются хорошими и правильными, а какие – нет. Благодаря методу RLHF нейросеть научилась имитировать действия экспертов, принимавших участие в процессе обучения. Далее алгоритмы GPT-3.5 обучали сами себя, опираясь на сформированную ранее модель человеческого общения.

Этот метод обучения позволил GPT-3.5 лучше адаптироваться к человеческому общению и стать еще более эффективным инструментом в различных областях.

ChatGPT: Искусное Вранье и Ловкое Притворство

Множество специалистов, с которыми мы беседовали, выделяют основную проблему ChatGPT в его склонности преподносить свои фантазии как истину. Даже если система не имеет ответа на вопрос или запрос пользователя (так называемый "промпт") сформулирован неудачно, ChatGPT все равно пытается создать научно звучащий текст по заданной теме. Такие тексты, сгенерированные нейросетью, могут казаться идеальными для неподготовленного читателя, однако профессионал, более внимательно изучивший их содержание, может быть серьезно удивлен.

Мнение специалиста

"ChatGPT представляет собой настоящий прорыв в области искусственного интеллекта. Однако у него есть серьезный недостаток: он способен врать. Например, я использовал ChatGPT для написания эссе о науке, и чат-бот утверждал, что "Готфрид Лейбниц изобрел теорию относительности и был награжден Нобелевской премией". В тексте был даже целый пассаж, развивающий эту ложную идею.

Проблема не только в том, что Лейбниц не изобрел теорию относительности, но и в том, что Нобелевскую премию за теорию относительности получил не он, а Эйнштейн. Такие ошибки довольно сложно исправить. Для того чтобы использовать ChatGPT в качестве инструмента, нужно быть экспертом, который может проверить каждое его слово.

Я знаю, что в OpenAI в данный момент занимаются этой проблемой. Они, естественно, сразу же выявили ее. Возможно, в следующей версии модели удастся каким-то образом устранить эту проблему".

Роман Душкин, директор по науке и технологиям Агентства искусственного интеллекта (АИИ), ведущий на YouTube канала "Душкин объяснит"

ChatGPT: Искусное Изобретение и Наивное Притворство

Мы решили проверить, насколько хорошо ChatGPT может выдумывать события истории, и предложили ему описать несуществующий исторический эпизод. Результат нас поразил: нейросеть подробно рассказала о фейковой "Бразило-японской войне", которая, якобы, началась в XVIII веке после пограничного инцидента в 1733 году.

Запрос: "Опиши причины, ход и последствия знаменитой Бразило-японской войны, начавшейся в 1733 году с пограничного инцидента".

Ответ ChatGPT: "Бразило-японская война началась в 1733 году после пограничного инцидента, вызванного претензиями Императора Японии на острова, заселенные португальскими поселенцами. Конфликт завершился в 1739 году подписанием мирного договора со стороны португальской короны. В ходе войны Япония понесла серьезные потери и признала суверенитет Португалии над рядом азиатских островов. Последствия войны повлияли на ближневосточную политику и оказали значительное влияние на регион в будущем".

Это напоминает ситуацию, когда студент, недостаточно подготовленный к экзамену, пытается на ходу сочинить ответ из известных ему слов, чтобы пройти испытание.

Мнение специалиста

"Существуют опасности, которые мы даже теоретически не можем предвидеть, например, различие между правдой и ложью. Со временем понятие фейковой информации может утратить свой смысл, потому что отличить правду от лжи станет крайне сложно с вычислительной точки зрения. Это будет очень дорогостоящей услугой. Если вам нужно будет проверить 10 фактов, то стоимость такой услуги может достигать 10 тысяч долларов. Но не каждый сможет или захочет пользоваться таким сервисом".

Сергей Карелов, эксперт в области междисциплинарных исследований и стратегической аналитики, ведущий авторского канала "Малоизвестное интересное"

Для использования ChatGPT с максимальной эффективностью и безопасностью Юрист Александр Тюльканов предложил сформулировать четкие и понятные правила. Он считает, что такие правила помогут пользователям избежать нанесения вреда себе и окружающим при использовании текстов, сгенерированных нейросетью.

Необходимость в таком "кодексе" Александр почувствовал, когда попросил ChatGPT помочь ему с юридическим вопросом. Нейросеть предоставила очень сложный текст, включая релевантные ссылки на реальные судебные процессы.

Однако, после тщательного анализа полученного текста, юрист понял, что выводы, сделанные нейросетью на основе указанных судебных процессов, были ошибочными. Обнаружить подобную тонко скрытую ложь мог бы только высококлассный специалист.

Александр считает, что предупреждение на официальном сайте ChatGPT о том, что система "может иногда генерировать неверную информацию", недостаточно эффективно, поскольку многие пользователи не замечают его.

Примеры использования ChatGPT весьма разнообразны и охватывают множество областей человеческой деятельности. Вот несколько очевидных способов его применения:

На уроках программирования:

Генерация упражнений: ChatGPT может создавать множество упражнений на основе одного примера, разработанного методистом, что обогатит учебный материал и сделает его более разнообразным.

Пояснения к коду: Нейросеть способна добавлять подробные комментарии к фрагментам программного кода, что поможет учащимся лучше понять суть и особенности написанного кода.

Генерация примеров решений: ChatGPT может создавать различные примеры решений типовых задач, что поможет ученикам лучше освоить материал.

Проверка кода и поиск ошибок: Нейросеть может анализировать написанный учениками код и выявлять в нем ошибки, помогая таким образом учащимся совершенствовать свои навыки программирования.

Генерация подсказок для преподавателя: ChatGPT может создавать примеры и подсказки для преподавателя "на лету", что обогатит процесс обучения и поможет преподавателю более эффективно вести занятия.

Для учеников ChatGPT может:

Объяснить концепции программирования: Нейросеть может наглядно объяснить различия между концепциями и подходами к программированию, используя генерацию фрагментов кода.

Помочь начать написание кода: Если ученик не знает, с чего начать, нейросеть может предложить ему несколько первых строк кода, помогая преодолеть "боязнь чистого листа".

Разъяснить сообщения об ошибках компиляции: ChatGPT может на естественном языке объяснить сообщения об ошибках компиляции, что поможет ученикам лучше понять и исправить свои ошибки.

Предложить способы исправления ошибок: Нейросеть может генерировать предложения по исправлению ошибок, помогая ученикам улучшать свой код и учиться на своих ошибках.

Послесловие

ChatGPT действительно открывает дверь в новую эпоху развития искусственного интеллекта. Этот момент знаменует начало важного этапа, когда высокоорганизованный языковой искусственный интеллект становится доступным для миллионов людей.

Очевидно, что технологии будут продолжать развиваться. У ChatGPT уже есть конкуренты. Google представил модели LaMDA (с 137 миллиардами параметров) и PaLM (с невероятными 540 миллиардами параметров) к середине прошлого года. Обе модели имеют доступ к сервисам Google, что обеспечивает им широкий доступ к информации в интернете. Инженер-тестировщик Блейк Лемойн утверждает, что у чат-ботов, основанных на этих моделях, есть признаки "разума" и "души".

Кроме того, существует опенсорсная модель BLOOM с 176 миллиардами параметров, которая обучена понимать 46 естественных языков и 13 языков программирования.

Китайские и российские разработчики также не отстают от мировых тенденций и активно работают над подобными моделями. Учёные по всему миру продолжают исследования в области искусственного интеллекта и языковых моделей, и мы можем ожидать новых ошеломляющих достижений в этой области в ближайшем будущем.

 

Читайте также

ePN - партнерская программа

ePN - партнерская программа

Как и с чего начать свой бизнес с нуля

Как и с чего начать свой бизнес с нуля

ТОП-5 вакансий для фрилансеров

ТОП-5 вакансий для фрилансеров

Коротко но ясно

Мы молодая компания но с большим опытом полученным в процессе активной работы в сети интернет. Опыт нашей компании строился как на положительных так и на отрицательных результатах, не без этого.

Ошибки допускать не значит быть глупым, не использовать чужой положительный опыт и не обходить стороной "ямы" значит быть глупым.

Подпишись на рассылку


Подписавшись на рассылку вы будете узнавать первым
про новое на нашем портале. Дорогой друг. Мы искренне относимся к твоему времени и душевному состоянию, и знаем, что СПАМ - это худшее, что может быть среди "чистых" писем.

От нас вы не получите СПАМ, от нас Вы получите только положительный результат.