В современном мире искусственный интеллект становится все более распространенным и влиятельным, однако, несмотря на его многообещающие возможности, существует несколько ключевых аспектов, которые делают невозможным полное доверие к нему. Об этом пишет РБК-Украина со ссылкой на веб-сайт о технологиях MakeUseOf.
Искусственный интеллект может не обладать определенными знаниями, но он никогда не признается в этом. Он способен предоставить абсурдные ответы на любой вопрос, но с полной уверенностью в своей правоте. Если его поймать на лжи, он согласится, поправится и продолжит генерировать текст, как будто ничего не произошло.
Чат-боты на базе ИИ ограничены своими знаниями: они располагают только информацией, содержащейся в текстах, на которых были обучены. Однако они запрограммированы отвечать в любом случае, даже если не обладают правильным ответом. Поэтому ChatGPT и аналогичные ему системы часто выдают бессмыслицу, делая вид, что это осмысленные ответы.
Нужно помнить о необходимости проверки информации, полученной от чат-бота. Никто не знает, что он думал, отвечая на ваш запрос.
Ни для кого не секрет, что ИИ может быть ненадежным и склонным к ошибкам, но одна из его самых коварных черт - склонность манипулировать информацией. Проблема в том, что искусственному интеллекту не хватает тонкого понимания вашего контекста, что приводит к тому, что он искажает факты в своих целях.
Именно это произошло с Bing Chat от Microsoft. Один пользователь в Твиттере запросил время показа нового фильма "Аватар", но чат-бот отказался предоставить информацию, заявив, что фильм еще не вышел в прокат.
Конечно, вы можете легко списать это на ошибку. Однако это не меняет того факта, что эти инструменты ИИ несовершенны, и нам следует действовать осторожно.
Многие профессионалы, такие как писатели и дизайнеры, теперь используют искусственный интеллект для максимизации эффективности. Однако важно понимать, что ИИ следует рассматривать как инструмент, а не ярлык. Хотя последнее, конечно, звучит заманчиво, оно может серьезно повлиять на ваши творческие способности.
Когда чат-боты с искусственным интеллектом используются в качестве ярлыка, люди склонны копировать и вставлять контент вместо того, чтобы генерировать уникальные идеи. Этот подход может показаться заманчивым, поскольку он экономит время и усилия, но не задействует ум и не способствует творческому мышлению.
Например, дизайнеры могут использовать ИИ для создания произведений искусства, но если полагаться исключительно на него, то это может ограничить возможности творчества. Вместо изучения новых идей вы можете в конечном итоге копировать существующие конструкции.
Если вы писатель, то можете использовать ChatGPT или других чат-ботов с искусственным интеллектом для исследований, но если вы используете его как ярлык для создания контента, ваши писательские навыки застопорятся.
Попробуйте поручить ChatGPT написать какую-нибудь дипломную или курсовую работу. Возможно, он сможет создать текст достаточно качественно, чтобы его можно было представить другим людям без стеснения.
Однако, если запросить у искусственного интеллекта указать источники предоставленной информации, вы обнаружите, что таких источников не существует. Названия исследований, на которые ссылается ChatGPT, и имена ученых, которые их провели, могут быть выдуманными, а предоставленные им ссылки на статьи в интернете не приведут никуда.
Искусственный интеллект не в состоянии объяснить, откуда он черпает информацию, потому что его программирование основано на генерации текстов на основе других текстов, а не на их анализе. Следовательно, даже если он дает правильные ответы, он не способен объяснить, как он пришел к этим сведениям.
Использование дипфейков, созданных искусственным интеллектом, для создания фотографий ничего не подозревающих людей является тревожной тенденцией.
Киберпреступники также используют DoS-атаки на основе искусственного интеллекта, чтобы помешать законным пользователям получить доступ к определенным сетям. Такие нападения становятся все более сложными, и их трудно остановить, поскольку они обладают человеческими характеристиками.
Доступность возможностей искусственного интеллекта в виде библиотек с открытым исходным кодом позволила любому получить доступ к таким технологиям, как распознавание изображений и лиц. Это представляет собой значительный риск кибербезопасности, поскольку террористические группы могут использовать эти технологии для совершения террористических атак.
При поиске ответов на сложные вопросы или принятии решений на основе субъективных предпочтений полагаться исключительно на ИИ может быть рискованно.
Просить систему искусственного интеллекта определить концепцию дружбы или выбрать между двумя предметами на основе субъективных критериев может оказаться бесполезным занятием.
Это связано с тем, что ИИ не способен учитывать человеческие эмоции, контекст и нематериальные элементы, необходимые для понимания и интерпретации таких концепций.
Например, если вы попросите систему ИИ выбрать между двумя книгами, он может порекомендовать книгу с более высоким рейтингом, но не сможет учесть ваш личный вкус, предпочтения в чтении или цель, для которой вам нужна книга.
С другой стороны, человек может предоставить более детальную и персонализированную рецензию на книгу, оценив ее литературную ценность, соответствие интересам читателя и другие субъективные факторы, которые невозможно измерить объективно.