Вы не можете проверить говорит ли ChatGPT правду
|
|
Из всех реакций, вызванных ChatGPT, чат-ботом американской коммерческой компании OpenAI, который дает грамматически правильные ответы на запросы на естественном языке, лишь немногие могут сравниться с реакцией преподавателей и ученых. Академические издатели приняли решение запретить ChatGPT указываться в качестве соавтора и издать строгие правила с изложением условий, при которых он может использоваться. Ведущие университеты и школы по всему миру, от известного французского Sciences Po до многих австралийских университетов, запретили его использование.
|
|
Эти запреты — не просто действия ученых, которые беспокоятся, что им не удастся поймать мошенников. Речь идет не только о поимке студентов, скопировавших источник без указания авторства. Скорее серьезность этих действий отражает вопрос, которому не уделяется достаточного внимания в бесконечном освещении чат-бота OpenAI ChatGPT: почему мы должны доверять всему, что он выводит? Это жизненно важный вопрос, поскольку ChatGPT и подобные ему программы можно легко использовать, с указанием или без, в источниках информации, составляющих основу нашего общества, особенно в академических кругах и средствах массовой информации.
|
|
Основываясь на моей работе по политической экономии управления знаниями, академические запреты на использование ChatGPT являются пропорциональной реакцией на угрозу, которую ChatGPT представляет для всей нашей информационной экосистемы. Журналисты и ученые должны с осторожностью использовать ChatGPT. Судя по результатам, ChatGPT может показаться просто еще одним источником информации или инструментом. Однако на самом деле ChatGPT — или, скорее, средства, с помощью которых ChatGPT производит свою продукцию, — это кинжал, нацеленный непосредственно на их авторитет как авторитетных источников знаний. Не следует относиться к этому легкомысленно.
|
|
Подумайте, почему мы считаем одни источники информации или виды знаний более надежными, чем другие. Со времен европейского Просвещения мы склонны отождествлять научное знание со знанием вообще. Наука — это больше, чем лабораторные исследования: это способ мышления, который отдает приоритет эмпирическим доказательствам и поиску прозрачных методов сбора и оценки доказательств. И это, как правило, золотой стандарт, по которому оцениваются все знания. Например, журналисты пользуются доверием, потому что они исследуют информацию, цитируют источники и предоставляют доказательства. Хотя иногда отчеты могут содержать ошибки или упущения, это не меняет авторитета профессии.
|
|
То же самое касается авторов передовиц, особенно ученых и других экспертов, потому что они — мы — черпаем свой авторитет из нашего статуса экспертов в предмете. Экспертиза включает в себя владение источниками, которые признаны содержащими законные знания в наших областях. Большинство статей не содержат большого количества ссылок, но ответственные ученые смогут указать вам на мыслителей и работу, на которую они опираются. И сами эти источники основаны на проверяемых источниках, которые читатель должен иметь возможность проверить самостоятельно. Поскольку авторы-люди и ChatGPT, похоже, производят один и тот же результат — предложения и абзацы, — понятно, что некоторые люди могут по ошибке присвоить этот научно обоснованный авторитет выходу ChatGPT. В том, что и ChatGPT, и репортеры выдают предложения, сходство заканчивается. Самое главное — источник авторитета — это не то, что они производят, а то, как они это производят.
|
|
ChatGPT не выдает предложений так, как это делает репортер. ChatGPT и другие модели больших языков с машинным обучением могут показаться сложными, но в основном это просто сложные машины автозаполнения. Только вместо того, чтобы предлагать следующее слово в электронном письме, они производят наиболее статистически вероятные слова в гораздо более длинных пакетах. Эти программы переупаковывают чужую работу, как будто это что-то новое. Он не «понимает», что производит. Оправдание этих выводов никогда не может быть правдой. Его истинность заключается в истинности соотношения, что слово «предложение» всегда должно завершать фразу «Мы заканчиваем друг друга…», потому что это наиболее частое явление, а не потому, что оно выражает что-то наблюдаемое.
|
|
Поскольку истина ChatGPT является лишь статистической истиной, выводам этой программы нельзя доверять так же, как мы можем доверять репортеру или выводам ученого. Его невозможно проверить, потому что он был создан для получения результатов, отличным от того, что мы обычно считаем «научным». Вы не можете проверить источники ChatGPT, потому что источником является статистический факт, что большую часть времени набор слов имеет тенденцию следовать друг за другом. Независимо от того, насколько последовательным может показаться вывод ChatGPT, простая публикация того, что он производит, по-прежнему эквивалентна тому, чтобы позволить автозаполнению разгуляться. Это безответственная практика, потому что она делает вид, что эти статистические уловки эквивалентны хорошо проверенным знаниям.
|
|
Точно так же ученые и другие лица, включающие ChatGPT в свой рабочий процесс, подвергаются экзистенциальному риску выбить из-под себя все здание научных знаний. Поскольку выходные данные ChatGPT основаны на корреляции, как автор узнает, что они точны? Проверяли ли они это по реальным источникам, или вывод просто соответствовал их личным предубеждениям? И если они являются экспертами в своей области, почему они вообще используют ChatGPT? Дело в том, что процессы ChatGPT не дают нам возможности проверить его правдивость. Напротив, тот факт, что у репортеров и ученых есть научный, основанный на фактических данных метод получения знаний, служит подтверждением их работы, даже если результаты могут противоречить нашим предвзятым представлениям.
|
|
Проблема особенно актуальна для ученых, учитывая нашу центральную роль в создании знаний. Полагаясь на ChatGPT, чтобы написать даже часть столбца, они больше не полагаются на научный авторитет, заложенный в проверенных источниках. Вместо этого, прибегая к статистически сгенерированному тексту, они фактически выдвигают аргумент из авторитета. Такие действия также вводят читателя в заблуждение, поскольку читатель не может отличить авторский текст от ИИ. ChatGPT может производить кажущиеся разборчивыми знания, как по волшебству. Но нам не следует путать его результаты с реальными научными знаниями. Никогда не следует путать согласованность с пониманием. ChatGPT обещает легкий доступ к новым и существующим знаниям, но это отравленная чаша. Остерегайтесь читателей, ученых и журналистов.
|
|
Источник
|