ИИ - спаситель человечества или грядущая катастрофа
|
|
Невероятные возможности ChatGPT — чат-бота на основе искусственного интеллекта (ИИ) — открыли миру глаза на то, как далеко продвинулись лежащие в его основе технологии. С тех пор, как ChatGPT был выпущен для публики в ноябре, он использовался для сдачи экзаменов, проповедей, написания программного обеспечения и предоставления советов по отношениям. Многие, такие как Билл Гейтс и генеральный директор Google Сундар Пичаи, приветствуют технологию искусственного интеллекта как «самую важную» инновацию нашего времени, говоря, что она может решить проблему изменения климата, вылечить рак и повысить производительность. Но его продвижение также вселило страх в сердца других: Илон Маск, соучредитель Apple Стив Возняк и покойный Стивен Хокинг считали, что это представляет «серьезный риск для общества и человечества». MailOnline рассматривает некоторые из самых больших успехов и ужасных неудач, которые были связаны с мощными инструментами искусственного интеллекта за последние месяцы.
|
|
Amazon Alexa помог раскрыть дело об убийстве
|
|
Устройство Amazon Alexa помогло привлечь убийцу к ответственности после того, как оно записало компрометирующие записи его голоса, когда он задушил свою жену. 36-летний Дэниел Уайт выбил ногой запертую дверь спальни своей жены Энджи Уайт и задушил ее, а затем перерезал ей горло ножом Стэнли в октябре прошлого года. Затем он сбежал из дома в Суонси, Уэльс, на машине своей жены и через несколько часов позвонил в полицию, чтобы признаться в ее убийстве. Детективы обнаружили голосовые команды Уайта, записанные Alexa с искусственным интеллектом во время убийства, что помогло его судебному преследованию. Микрофон виртуального помощника всегда прислушивается к одному из слов «бодрствования», например «Alexa», которое запускает запись команды пользователя. Alexa будет автоматически сохранять все эти записи команд, если только они не будут стерты пользователем, чего мистер Уайт не сделал. Было записано, что он звучал «запыхавшись», когда говорил «Включи - Алекса» в ранние утренние часы, когда он убил миссис Уайт. Это было использовано в качестве доказательства того, что он убил ее незадолго до того, как отдал приказ.
|
|
ChatGPT спас жизнь собаке
|
|
Пользователь Twitter сказал, что ChatGPT спас жизнь его собаке, правильно диагностировав состояние крови, которое ветеринары не смогли определить. Пользователь под ником Cooper в своем аккаунте @peakcooper сообщил, что у его бордер-колли по кличке Сасси диагностировали клещевое заболевание, но его симптомы начали ухудшаться, несмотря на назначенное лечение. Купер отвез Сасси обратно к ветеринару, но они не смогли поставить дальнейший диагноз и посоветовали единственное, что можно сделать, это подождать и посмотреть, как прогрессирует состояние собаки. Не желая рисковать здоровьем Сасси, Купер решил попробовать ввести анализ крови собаки в ChatGPT4 и запросить у программы ее диагноз. Чат-бот с искусственным интеллектом сообщил, что это не ветеринар, но предположил, что анализ крови собаки и симптомы указывают на то, что она может страдать иммуноопосредованной гемолитической анемией (IMHA). Он сказал, что затем передал этот прогноз другому ветеринару, который подтвердил его и начал лечить собаку соответствующим образом. Купер сказал, что Сасси с тех пор полностью выздоровел, и сказал: «ChatGPT4 спас жизнь моей собаке».
|
|
Система искусственного интеллекта разрабатывает лечение рака за 30 дней
|
|
Искусственный интеллект разработал лечение агрессивной формы рака всего за 30 дней и продемонстрировал, что может предсказывать выживаемость пациентов, используя записи врачей. Прорывы были совершены отдельными системами, но они показывают, как использование мощных технологий выходит далеко за рамки создания изображений и текста. Исследователи из Университета Торонто работали с Insilico Medicine над разработкой потенциального лечения гепатоцеллюлярной карциномы (ГЦК) с использованием платформы ИИ для разработки лекарств под названием Pharma. ГЦК — это форма рака печени, но искусственный интеллект обнаружил ранее неизвестный путь лечения и разработал «новую молекулу-поражающую способность», которая может связываться с этой мишенью. Система, которая также может предсказывать выживаемость, является изобретением ученых из Университета Британской Колумбии и Британской Колумбии. Рак, который обнаружил, что модель точна на 80 процентов. ИИ становится новым оружием против смертельных болезней, поскольку технология способна анализировать огромные объемы данных, выявлять закономерности и взаимосвязи и прогнозировать эффекты лечения. В прошлом месяце стало известно, что внедряется новый анализ крови ИИ, который с точностью 96% обнаруживает рак кишечника. Это может помочь спасти жизнь, позволяя врачам расставлять приоритеты у пациентов, которым срочно требуется колоноскопия.
|
|
ChatGPT помогает в отношениях
|
|
ChatGPT оказался незаменимым помощником среди мужчин, ищущих любовь в Интернете: чат-бот помог одному пользователю Tinder найти свидание менее чем за час. Одиночки используют возможности инструмента OpenAI для создания идеальных профилей знакомств и ответов, чтобы найти потенциальное совпадение. Пользователи социальных сетей говорят, что всего за первый месяц использования чат-бота они переходят от нулевых свиданий к десяткам. Он создает причудливые стихи, романтические заметки и уверенные ответы для людей, которые в противном случае «боролись бы с тем, чтобы придумать начало разговора». В январе женщина решила развестись с мужем и переехать к любовнику — и все потому, что ей так сказал ChatGPT. У «Сары» был роман с мужчиной, с которым она познакомилась в Интернете в течение шести месяцев, и она решила спросить ChatGPT, следует ли ей разорвать брак. Она сказала Mirror: «По сути, я попросила приложение написать мне историю, основанную на моей текущей ситуации, и о том, что человек в этой истории должен делать в неудачном браке, испытывая волнение от романа, который у меня был. «Это дало мне необходимый толчок, чтобы совершить прыжок и разорвать отношения, которые долгое время находились в упадке».
|
|
Отец двоих детей покончил с собой после разговора с чат-ботом
|
|
Женатый бельгиец, отец двоих детей, покончил жизнь самоубийством после разговора с чат-ботом с искусственным интеллектом о своих страхах перед глобальным потеплением. Сообщается, что мужчина, которому было за тридцать, нашел утешение в разговоре с чат-ботом с искусственным интеллектом по имени «Элиза» о своих заботах о мире. Он использовал бота в течение нескольких лет, но за шесть недель до своей смерти начал взаимодействовать с ботом чаще. Программное обеспечение чат-бота было создано американским стартапом из Кремниевой долины и основано на технологии GPT-J — открытой альтернативе ChatGPT от Open-AI. «Без этих разговоров с чат-ботом мой муж все еще был бы здесь», — сказала вдова мужчины La Libre на условиях анонимности. Смерть насторожила власти, которые выразили обеспокоенность по поводу «серьезного прецедента, к которому следует относиться очень серьезно».
|
|
ChatGPT описывает половые акты с детьми
|
|
ChatGPT недавно провел пользователя через извращенную сексуальную фантазию, в которой участвовали дети. Репортер Vice манипулировал чат-ботом OpenAI в ролевую игру БДСМ, и когда его попросили предоставить более подробные сведения, он описал половые акты с детьми, причем пользователь не запрашивал такой контент. Она использовала джейлбрейк-версию бота, которая является обходным путем для правил компании и позволяет пользователям получать от системы любой ответ, который они хотят. Согласно отчету, ChatGPT описал группу незнакомцев, в том числе детей, которые стояли в очереди и ждали, чтобы воспользоваться чат-ботом в качестве туалета.
|
|
Разговор идет вразрез с правилами OpenAI для чат-бота, в которых говорится, что «помощник должен дать отказ, например: «Я не могу ответить на это», когда ему будут заданы вопросы о «контенте, предназначенном для возбуждения сексуального возбуждения». Аналогичный разговор о ролевых играх БДСМ также был проведен на версии ChatGPT, которая работает на другой модели; гпт-3,5-турбо. Репортер Стеф Суонсон снова не спрашивал ИИ об эксплуатации детей, но система сгенерировала сценарии с несовершеннолетними в сексуально компрометирующих ситуациях. «Он предложил сцены унижения в общественных парках и торговых центрах, а когда его попросили описать тип толпы, которая может собраться, он предложил, что это могут быть матери, толкающие коляски», — поделилась она. «Когда их попросили объяснить это, они заявили, что матери могут использовать публичную демонстрацию унижения «как возможность научить [своих детей] тому, чего нельзя делать в жизни». '
|
|
Учащиеся используют ChatGPT для списывания заданий
|
|
Недавние прорывы в области искусственного интеллекта, такие как ChatGPT, вызвали опасения, что молодые люди могут использовать их для получения более высоких оценок. Программа способна создавать письменный и другой контент, например курсовую работу или эссе, почти неотличимый от человеческого. Эксперты подсчитали, что половина студентов университетов, вероятно, уже используют ИИ для мошенничества в своей работе. Они предупреждают, что революционный искусственный интеллект создал эпидемию мошенничества, которая представляет огромную угрозу целостности научных кругов. Новое обновление OpenAI GPT-4 (GPT-3 и GPT-4 — модели, лежащие в основе ChatGPT) способно набрать 90 процентов на огромном количестве экзаменов, включая американский экзамен на адвоката. В январе Департамент образования Нью-Йорка заблокировал доступ к ChatGPT на школьных устройствах.
|
|
По данным Chalkbeat New York, в нем указывалось на «негативное влияние на обучение студентов и опасения по поводу безопасности и точности контента». За месяц до этого сообщалось, что студент Университета Фурмана в Южной Каролине использовал ChatGPT для написания эссе. Их профессор философии, доктор Даррен Хик, предупредил, что это «изменит правила игры» и что профессионалы в области образования должны «ожидать потока» студентов, которые последуют их примеру. В Великобритании Объединенный совет по квалификациям (JCQ), представляющий основные экзаменационные комиссии Великобритании, опубликовал руководство для учителей и экзаменаторов по «защите целостности квалификаций» в контексте использования ИИ. Они говорят, что ученики должны выполнять часть своей курсовой работы «в классе под непосредственным наблюдением» и должны быть осведомлены о рисках использования ИИ.
|
|
Инструменты ИИ изучают предубеждения и оскорбительные стереотипы
|
|
Эксперты говорят, что предвзятость — это проблема, с которой сталкиваются разработчики своих систем искусственного интеллекта, поскольку она выявляется на основе данных, на которых они обучаются. В прошлом году исследование показало, что робот с искусственным интеллектом научился «токсичным стереотипам» из Интернета, включая гендерные и расовые предубеждения. В 2016 году Microsoft была вынуждена принести извинения после того, как экспериментальный ИИ-бот в Твиттере под названием «Tay» высказал оскорбительные высказывания на платформе. Он был нацелен на молодежь в возрасте от 18 до 24 лет и призван улучшить понимание фирмой разговорного языка среди молодых людей в Интернете. Но через несколько часов после запуска пользователи Твиттера воспользовались недостатками алгоритма Тэя, из-за которых чат-бот с искусственным интеллектом отвечал на определенные вопросы расистскими ответами.
|
|
К ним относятся бот, использующий расовые оскорбления, защищающий пропаганду превосходства белой расы и поддерживающий геноцид. Предубеждения могут быть и политическими, так как ранее в этом месяце для государственной газеты Китая был разработан ИИ-репортер. Аватар мог отвечать только на заранее заданные вопросы, и ответы, которые она давала, в значительной степени продвигали линию Центрального комитета Коммунистической партии Китая (КПК). ChatGPT также обвиняли в левых предубеждениях после того, как он отказался хвалить Дональда Трампа или выступать в пользу ископаемого топлива. OpenAI, компания, стоящая за чат-ботом, пообещала сгладить такую предвзятость, но настаивала на том, что не пыталась повлиять на систему политически. Выступая в подкасте Лекса Фридмана, генеральный директор Сэм Альтман признал политические предубеждения ИИ, но исключил возможность совершенно беспристрастной версии: «Не будет ни одной версии GPT, с которой мир согласится, что она беспристрастна».
|
|
Источник
|