ChatGPT просто очаровал весь мир и даже сегодня может реально помочь вполне себе содержательным и полезным советом.
Умный бот гениально помогает написать классное коммерческое предложение, составить резюме или претензию в службу поддержки, мгновенно разобраться в какой-то ранее совершенно незнакомой теме, выучить уроки, найти рецепт и еще уйму всего.
Но проблема в том, что по сути ChatGPT — это по-прежнему «профессиональный балабол«, который мгновенно и просто мастерски выдает предвзятую, устаревшую или попросту неверную информацию с видом доктора наук.
Не пропустите: Зачем людям ChatGPT — специалисты OpenAI выяснили
Это совсем нестрашно, когда просишь его сочинить быстренько стишок в школу. И совсем другой дело, когда вопросы касаются здоровья, денег, каких-то юридических проблем и прочих тем, где быстрый, но неверный ответ может сильно усугубить ситуацию и будет иметь крайне нехорошие последствия.
В общем, вот
полный список тем, в которых на ответы ChatGPT лучше не полагаться.
#1- Диагностика физического здоровья
Спрашивать у ИИ диагноз по симптомам точно нельзя. Бот не способен взять анализы, провести осмотр и тем более нести ответственность за ошибку. Но зато легко может заявить, что шишка на груди — это рак, хотя на деле это безобидная липома (жировик).
#2 — Психотерапия и психическое здоровье
ChatGPT — не психотерапевт. У него нет эмпатии, жизненного опыта, он не видит язык тела и не может распознать настроение и тон голоса. Это в лучшем случае имитация, в худшем — опасный совет, который может усугубить проблему. Опять же , бот не работает по лицензии и не несет ответственности за причиненный вред.
#3 — Принятие решений в экстренных ситуациях
Если сработала сигнализация угарного газа, не надо спрашивать у ИИ, насколько это опасно. Сначала — на улицу и вызывать специалистов. ИИ не улавливает запах дыма. Каждая секунда, потраченная на ввод запроса — это потерянное время.
#4 — Персональное финансовое или налоговое планирование
ИИ может объяснить, что такое НДС, но он не знает налоговой ставки, кредитной истории, не может оценить склонность к риску или целей по накоплениям. Его данные по налоговому законодательству почти наверняка устарели. Он не заменит бухгалтера, который найдет скрытый вычет или заметит ошибку.
Не пропустите: ИИ-трейдеры тоже предпочитают «проверенные схемы»
#5 — Работа с конфиденциальными и личными данными
Это, пожалуй, главное. Все, что вы вводите в окно чата, уходит на сторонние серверы и может быть (а значит, будет!) использовано для дальнейшего обучения модели. Это касается в том числе рабочих документов, клиентских баз, контрактов.
И, конечно, это касается ваших личных доходов, номера паспорта, банковских реквизитов и любой персональной информации. Если не хотите выставлять эти данные на всеобщее обозрение, не вставляйте их в ChatGPT.
#6 — Всё противозаконное
Тут все понятно без слов…
#7 — Помощь на экзаменах
В некоторых странах за это уже наказывают официально. Системы обнаружения списывания (вроде Turnitin) становятся умнее, да и преподаватели уже за версту чуют «голос ChatGPT«.
Так что, можно нажить неиллюзорных неприятностей. Ну и в конечном итоге, это просто обман самого себя.
#8 — Мониторинг новостей в реальном времени
Хотя ChatGPT уже умеет искать информацию в сети, он не является живой лентой новостей. Он не будет сам обновлять данные. Каждый раз нужен новый запрос. Для отслеживания событий в реальном времени по-прежнему нужны новостные сайты и официальные источники.
#9 — Ставки и азартные игры
Полагаться на него в ставках — откровенное безумие. Он может «галлюцинировать» и выдавать неверную статистику по игрокам, сообщать о вымышленных травмах или путать результаты матчей. Не стоит доверять ему свои деньги.
#10 — Составление юридических документов (завещаний, договоров)
Просить бота составить завещание или договор тоже не нужно. Юридические правила и нормы сильно отличаются в разных странах и даже регионах. Пропущенная подпись или неверная формулировка могут сделать весь документ недействительным.
Не пропустите: 6 приёмов, которыми ИИ-бот удерживает вас в чате
#11 — Создание произведений искусства
Это отчасти субъективно, но «творить» с помощью ChatGPT и потом выдавать результаты за свои собственные — это не совсем этично и некрасиво. В особенности, когда зрители/слушатели/критики заметят… Применять бота для мозгового штурма или поиска идей — это да. Но не для прямой подмены творчества.
В общем, ChatGPT, как инструмент — в умелых руках штука вполне себе. Но только как помощника (и желательно, не единственный), который поможет быстрее и точнее сформулировать актуальные вопросы для настоящего специалиста — врача, юриста или бухгалтера. Но ChatGPT — не специалист!