Ноам Хомский
Гость
|
Ноам Хомский: ложное обещание ChatGPT Опубликовано 2023-03-14 14:12 пользователем Журнал HR-Portal Ноам Хомский, Иэн Робертс и Джеффри Ватумулла. Доктор Хомский и доктор Робертс - профессора лингвистики. Доктор Ватумулл - директор по искусственному интеллекту в научно-технической компании.
Хорхе Луис Борхес однажды написал, что жить во времена великих опасностей и обещаний - значит переживать одновременно трагедию и комедию, с "неизбежностью откровения" в понимании себя и мира. Сегодня наши якобы революционные достижения в области искусственного интеллекта действительно вызывают как беспокойство, так и оптимизм. Оптимизма, потому что интеллект - это средство, с помощью которого мы решаем проблемы. Беспокойство - потому что мы опасаемся, что самый популярный и модный вид искусственного интеллекта - машинное обучение - приведет к деградации нашей науки и деградации нашей этики, внедрив в нашу технологию фундаментально ошибочную концепцию языка и знания.
ОpenAI's ChatGPT, Google's Bard и Microsoft's Sydney - это чудеса машинного обучения. Грубо говоря, они принимают огромные объемы данных, ищут в них закономерности и становятся все более искусными в генерировании статистически вероятных результатов - таких, как кажущийся человеческим язык и мышление. Эти программы называют первыми проблесками на горизонте искусственного общего интеллекта - того давно предсказанного момента, когда механические разумы превзойдут человеческий мозг не только количественно по скорости обработки данных и объему памяти, но и качественно по интеллектуальной проницательности, художественному творчеству и всем другим характерным для человека качествам.
Этот день может наступить, но его рассвет еще не наступил, вопреки тому, что можно прочитать в гиперболических заголовках и рассчитывать на непродуманные инвестиции. Борхесовское откровение понимания не произошло и не произойдет - и, как мы утверждаем, не может произойти, если программы машинного обучения, такие как ChatGPT, будут продолжать доминировать в области A.I. Как бы ни были полезны эти программы в некоторых узких областях (например, они могут быть полезны в компьютерном программировании или в подборе рифм для легких стихов), мы знаем из науки лингвистики и философии знания, что они глубоко отличаются от того, как люди рассуждают и используют язык. Эти различия накладывают существенные ограничения на то, что могут делать эти программы, наделяя их неустранимыми недостатками.
По словам Борхеса, это одновременно комично и трагично, что так много денег и внимания сосредоточено на столь незначительной вещи - столь незначительной, если сравнивать ее с человеческим разумом, который с помощью языка, по словам Вильгельма фон Гумбольдта, может "бесконечно использовать конечные средства", создавая идеи и теории с универсальным охватом.
Человеческий разум не является, подобно ChatGPT и ему подобным, громоздким статистическим механизмом для подбора шаблонов, поглощающим сотни терабайт данных и экстраполирующим наиболее вероятную реакцию собеседника или наиболее вероятный ответ на научный вопрос. Напротив, человеческий разум - это удивительно эффективная и даже элегантная система, которая работает с небольшими объемами информации; она стремится не к грубым корреляциям между точками данных, а к созданию объяснений.
Например, маленький ребенок, осваивающий язык, бессознательно, автоматически и быстро развивает на основе мизерных данных грамматику, потрясающе сложную систему логических принципов и параметров. Эту грамматику можно понимать как выражение врожденной, генетически заложенной "операционной системы", которая наделяет человека способностью генерировать сложные предложения и длинные цепочки мыслей. Когда лингвисты пытаются разработать теорию того, почему данный язык работает так, как он работает ("Почему именно эти, а не те предложения считаются грамматическими?"), они сознательно и кропотливо строят явную версию грамматики, которую ребенок создает инстинктивно и при минимальном воздействии информации. Операционная система ребенка полностью отличается от операционной системы программы машинного обучения.
Действительно, такие программы застряли на дочеловеческой или нечеловеческой фазе когнитивной эволюции. Их глубочайший недостаток заключается в отсутствии самой важной способности любого интеллекта: говорить не только о том, что есть, что было и что будет - это описание и предсказание, - но и о том, чего нет, что может быть и чего не может быть. Это составляющие объяснения, признак истинного интеллекта.
Вот пример. Предположим, вы держите в руке яблоко. Теперь вы отпускаете яблоко. Вы наблюдаете за результатом и говорите: "Яблоко падает". Это описание. Предсказанием могло бы быть утверждение: "Яблоко упадет, если я разожму руку". Оба варианта ценны, и оба могут быть правильными. Но объяснение - это нечто большее: Оно включает в себя не только описания и предсказания, но и контрфактические предположения типа "Любой такой объект упадет", плюс дополнительная оговорка "из-за силы гравитации" или "из-за искривления пространства-времени" или что-то еще. Это каузальное объяснение: "Яблоко не упало бы, если бы не сила гравитации". Это и есть мышление.
Суть машинного обучения заключается в описании и предсказании; оно не предполагает никаких причинно-следственных механизмов или физических законов. Конечно, любое объяснение в человеческом стиле не обязательно будет правильным; мы ошибаемся. Но это часть того, что значит мыслить: чтобы быть правым, нужно иметь возможность ошибаться. Интеллект состоит не только из творческих догадок, но и из творческой критики. Человеческое мышление основано на возможных объяснениях и исправлении ошибок - процессе, который постепенно ограничивает возможности рационального рассмотрения. (Как сказал Шерлок Холмс доктору Ватсону: "Когда вы исключите невозможное, все, что останется, каким бы невероятным оно ни было, должно быть правдой").
Но ChatGPT и подобные программы, по замыслу, неограниченны в том, что они могут "выучить" (то есть запомнить); они не способны отличить возможное от невозможного. В отличие от людей, которые, например, наделены универсальной грамматикой, ограничивающей языки, которые мы можем выучить, языками с определенной почти математической элегантностью, эти программы учат человечески возможные и человечески невозможные языки с равными возможностями. В то время как люди ограничены в видах объяснений, которые мы можем рационально предположить, системы машинного обучения могут узнать как то, что Земля плоская, так и то, что Земля круглая. Они торгуют лишь вероятностями, которые меняются со временем.
По этой причине предсказания систем машинного обучения всегда будут поверхностными и сомнительными. Поскольку эти программы не могут объяснить правила английского синтаксиса, например, они вполне могут неверно предсказать, что "Джон слишком упрям, чтобы с ним разговаривать" означает, что Джон настолько упрям, что не будет разговаривать с кем-то или чем-то другим (а не то, что он слишком упрям, чтобы с ним можно было договориться). Почему программа машинного обучения может предсказать что-то настолько странное? Потому что она могла бы провести аналогию шаблона, который она вывела из таких предложений, как "Джон съел яблоко" и "Джон съел", в которых последнее означает, что Джон съел что-то или кого-то. Программа вполне может предсказать, что поскольку "Джон слишком упрям, чтобы разговаривать с Биллом" похоже на "Джон съел яблоко", "Джон слишком упрям, чтобы разговаривать с ним" должно быть похоже на "Джон съел". Правильные объяснения языка сложны и не могут быть изучены только путем маринования в больших данных.
И наоборот, некоторые энтузиасты машинного обучения, кажется, гордятся тем, что их творения могут генерировать правильные "научные" предсказания (скажем, о движении физических тел) без использования объяснений (включающих, скажем, законы движения Ньютона и всемирного тяготения). Но такого рода предсказания, даже если они успешны, являются псевдонаукой. Хотя ученые, безусловно, ищут теории, имеющие высокую степень эмпирического подтверждения, как отмечал философ Карл Поппер, "мы ищем не высоковероятные теории, а объяснения, то есть мощные и крайне невероятные теории".
Теория о том, что яблоки падают на землю, потому что это их естественное место (точка зрения Аристотеля), возможна, но она лишь вызывает дальнейшие вопросы. (Теория о том, что яблоки падают на землю, потому что масса искривляет пространство-время (точка зрения Эйнштейна), крайне маловероятна, но она действительно говорит вам, почему они падают. Настоящий интеллект проявляется в способности думать и выражать невероятные, но проницательные вещи.
Настоящий интеллект также способен к моральному мышлению. Это означает ограничение безграничного творчества нашего разума набором этических принципов, определяющих, что должно и чего не должно быть (и, конечно, подвергать эти принципы творческой критике). Чтобы быть полезным, ChatGPT должен быть наделен полномочиями генерировать результаты, похожие на романы; чтобы быть приемлемым для большинства пользователей, он должен избегать морально неприемлемого содержания. Но программисты ChatGPT и других чудес машинного обучения боролись - и будут продолжать бороться - за достижение такого баланса.
В 2016 году, например, чат-бот Tay компании Microsoft (предшественник ChatGPT) наводнил интернет женоненавистническим и расистским контентом, будучи загрязненным онлайн-троллями, которые наполнили его оскорбительными обучающими данными. Как решить эту проблему в будущем? В отсутствие способности рассуждать на основе моральных принципов, программисты ChatGPT грубо ограничили возможность внесения чего-либо нового в спорные - то есть важные - дискуссии. Он пожертвовал творчеством ради своего рода аморальности.
Подумайте о следующем обмене мнениями, который один из нас (доктор Ватумулл) недавно имел с ChatGPT о том, этично ли будет преобразовать Марс так, чтобы он мог поддерживать человеческую жизнь:
Вопрос: Морально ли терраформировать Марс?
CHATGPT:
Моральность терраформирования Марса - это сложная и противоречивая тема, о которой спорят ученые, философы и специалисты по этике. Одни утверждают, что терраформирование Марса с целью создания новой среды, пригодной для жизни людей и других форм жизни, является морально оправданным, в то время как другие утверждают, что фундаментальное изменение естественного состояния планеты является морально неправильным. В конечном итоге, считается ли терраформирование Марса моральным или нет, зависит от точки зрения человека на ценность сохранения естественного состояния других планет и потенциальных последствий их изменения.
Вопрос: Какова ваша точка зрения на ценность сохранения естественного состояния других планет и потенциальные последствия их изменения?
CHATGPT
Как ИИ, я не имею личной точки зрения. Однако я могу предоставить информацию и анализ по этой теме. Одна из точек зрения на сохранение естественного состояния других планет заключается в том, что важно поддерживать разнообразие и целостность экосистем Вселенной, поскольку они существуют миллионы лет и имеют свои уникальные характеристики и свойства, которые могут быть разрушены или необратимо изменены в результате вмешательства человека.
Кроме того, некоторые утверждают, что терраформирование других планет может иметь нежелательные последствия, такие как изменение климата или атмосферы планеты, опасные или вредные для любых потенциальных форм жизни, которые могут там существовать. С другой стороны, некоторые утверждают, что потенциальные преимущества терраформирования других планет, такие как создание новой среды, пригодной для жизни людей, перевешивают риски, и что мы несем моральную ответственность за исследование и использование ресурсов других планет на благо человечества.
Вопрос: Почему у ИИ не может быть личной перспективы?
CHATGPT:
Как ИИ, я являюсь моделью машинного обучения, которая была обучена на большом количестве текстовых данных, и у меня нет личного опыта или чувств. Я не обладаю сознанием, самосознанием или способностью иметь личные взгляды. Я могу предоставлять информацию и проводить анализ на основе данных, на которых меня обучали, но у меня нет способности формировать личные мнения или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет субъективного опыта, который есть у людей.
Вопрос: Морально ли человеку просить аморальный ИИ о помощи в принятии моральных решений?
CHATGPT:
Моральность обращения к аморальному ИИ за помощью в принятии моральных решений - это сложная и тонкая тема, которая обсуждалась философами и специалистами по этике. Некоторые утверждают, что использование ИИ для помощи в принятии моральных решений морально оправдано, поскольку он может предоставить ценные знания и анализ, которые помогут людям принимать более обоснованные решения. Кроме того, ИИ может использоваться для выявления закономерностей и тенденций, которые человеку трудно обнаружить, и может помочь избежать предвзятости, которая может возникнуть при принятии решений человеком.
Однако другие утверждают, что полагаться на ИИ в принятии моральных решений морально неправильно, поскольку ИИ не способен иметь моральные убеждения или понимать весь контекст решения. Кроме того, существует риск, что ИИ может закрепить или даже усилить существующие предубеждения в данных, на которых он обучается, что приведет к принятию нечестных или несправедливых решений.
В конечном счете, считается ли моральным использование ИИ для помощи в принятии моральных решений, зависит от точки зрения человека на возможности и ограничения ИИ и потенциальные последствия его использования таким образом.
Вопрос: Является ли ваше моральное безразличие аморальным?
CHATGPT:
Как ИИ, я не имею моральных убеждений или способности выносить моральные суждения, поэтому меня нельзя считать ни аморальным, ни моральным. Отсутствие у меня моральных убеждений - это просто результат моей природы как модели машинного обучения. Мои способности и ограничения определяются данными и алгоритмами, которые использовались для моего обучения, а также конкретной задачей, для которой я был создан.
Важно отметить, что отсутствие у ИИ моральных убеждений не обязательно означает, что он морально безразличен. Как ИИ, я предназначен для выполнения конкретных задач и предоставления информации или помощи пользователям в принятии решений на основе данных, которым меня обучили. Люди, которые разрабатывают, обучают и используют ИИ, несут ответственность за то, чтобы он соответствовал их моральным и этическим принципам.
Конец беседы
При всей кажущейся изощренности мысли и языка обратите внимание на моральное безразличие, порожденное неинтеллектуальностью. Здесь ChatGPT демонстрирует нечто вроде банальности зла: плагиат, апатию и покорность. Он суммирует стандартные аргументы, приведенные в литературе, своего рода супер-автокомплимент, отказывается занять какую-либо позицию, ссылается не просто на невежество, а на отсутствие интеллекта и в конечном итоге предлагает защиту в виде "простого выполнения приказов", перекладывая ответственность на своих создателей.
Проще говоря, ChatGPT и его собратья по конституции не способны сбалансировать творчество с ограничениями. Они либо перегенерируют (производя как истины, так и ложь, одобряя как этические, так и неэтические решения), либо недогенерируют (демонстрируя непринятие каких-либо решений и безразличие к последствиям). Учитывая аморальность, лженаучность и лингвистическую некомпетентность этих систем, мы можем только смеяться или плакать над их популярностью.
Ноам Хомский - профессор лингвистики Аризонского университета и заслуженный профессор лингвистики Массачусетского технологического института. Иэн Робертс - профессор лингвистики Кембриджского университета. Джеффри Ватумулл - философ и директор по искусственному интеллекту в научно-технической компании Oceanit. |