Источник морально устарел - сведения 10-летней давности, а тем более из уст экономиста.
• Компьютерные системы являются строго алгоритмизированными, существуют алгоритмически неразрешимые задачи, следовательно, эти задачи не могут быть решены ИИ. Общий вывод: ИИ не способен справиться со всем многообразием проблем, в отличие от ЕИ, способного не только к алгоритмическому, но и эвристическому мышлению.
Это ограничение вытекает не из компьютеризированности, а из строгой алгоритмизации. В самом деле, если заданный компьютеру алгоритм строго предписывает то, что ему делать, то тот не сможет решать задачи, для которых этот алгоритм не предназначен.
Однако в том и состоит суть ИИ, что в него не впаривают готовый алгоритм решения конкретной задачи, который очевидно является узкоспециализированным, а задают общую способность к обучению, когда алгоритмы действий заранее не задаются, а формируются самим ИИ в процессе обучения по принципу подобия тем примерам, на которых его обучали.
Можно или нельзя отнести методы ИИ к эвристическому мышлению, остается открытым. Однако следует понимать, что эвристики рассчитаны на человеческое мышление с целью преодолеть его естественные ограничения. Тогда как ИИ способен действовать методами, человеческому мышлению совершенно недоступными. Поэтому это возражение столь же нелепо, как утверждение о порочности автомобиля только из-за того, что тот не может ходить на ходулях и у него нет ног, чтобы нацепить на них роликовые коньки.
• Согласно теореме Гёделя «о неполноте», в любой формальной непротиворечивой системе можно выявить утверждения, которые нельзя ни доказать, ни опровергнуть средствами самой системы, т.е. в рамках данной системы эти утверждения будут неразрешимыми. Естественный вывод — не все когнитивные процессы могут быть формализованы, следовательно, невозможно и их моделирование.
Теорема Гёделя не может здесь служить ограничением, поскольку говорит не о возможности существования, а лишь о возможности доказательства! При этом явно напирая не на то, что чего-то не может быть в принципе, а на то, что доказательная платформа во многих случаях бывает недостаточной для того, чтобы объявить явление необходимым. Скажем, нельзя доказать, что в году 365 (с четвертью) дней, тем не менее это так. Причем, большинство наблюдаемых фактов именно таково - они следуют не из логической обязательности, а представляют собой один из множества возможных вариантов, которому посчастливилось реализоваться в реальности.
• Из двух предыдущих аргументов вытекает утверждение о неспособности ИИ к творчеству, эвристическому (интуитивному) мышлению, эмоциональным проявлениям и другим человеческим качествам, которые «не могут быть описаны с помощью математических средств», т.к. современный математический аппарат, на основе которого осуществляется моделирование когнитивных функций человека, ориентирован на формально-логические отношения.
Не из двух аргументов, а только из первого! Однако выше уже было указано, что ИИ не является строго алгоритмизированным по части принятия решений, поскольку является не автоматом, действующим по заданному ему алгоритму, а действует, согласно подобию тем примерам, на которых его обучали. И если ИИ совершает ошибку, то не от того, что его неверно запрограммировали, а лишь только потому, что предложенная ему для решения задача оказалась малопохожей на те примеры, на которых его обучали.
• Неясными остаются вопросы об использовании ИИ естественного языка, носящего неоднозначный, контекстуально обусловленный, коммуникативный характер; использовании неявных знаний; индивидуальности временного и опережающего характера причинно-следственных связей; роли вероятности и случайности.
Довольно очевидно, что это недостаток "естественного языка, носящего неоднозначный характер", а вовсе не недостаток ИИ. С недостатками естественного языка люди сталкивались и раньше - именно поэтому были разработаны словари технических/специальных терминов и математическое описание явлений. Еще раз повторяю для непонятливых: ИИ не обязан во всех случаях имитировать человека, включая его типаж мышления, логики и языка. И если он достигает решения задачи своими методами (обычно более быстрыми и точными), то это следует только приветствовать, а не обсирать. Например, компьютер не умножает многозначные числа столбиком, хотя человек может умножать только так. И незачем принуждать компьютер, а стало быть и ИИ, чтобы он множил числа столбиком, подражая человеку.
• Существенным признаком разумности с точки зрения лингвистического подхода в ИИ-философии считается способность человеческого сознания к заданию семантической и синтаксической интерпретаций каким-либо природным объектам, образованиям так, чтобы эти образования получали статус знаковой системы. Система ИИ вышеизложенными способностями не обладает.
Это снова антропоцентрическое требование, чтобы ИИ мыслил как человек, излагая логику мышления в привычных для человека формулировках. Тогда как нужно понимать, что ИИ для того и создается, чтобы практиковать альтернативные методы решения задач, для человеческого мышления совершенно непосильные. Семантика и синтаксис - понятия из другой категории, где ставится совершенно иная задача - задача растолковать человеку целесообразность найденного решения вопреки тому, что сознание человека к этому может оказаться неспособным.
• Современные разработки ИИ являются машинами последовательного или квазипоследовательного действия, что в корне отличает их от ЕИ, осуществляющего ассоциативную, параллельную обработку информации.
Снова морально устаревшее утверждение, т.к. современные ИИ работают на принципе нейросети, где в максимальной мере используется параллелизм, а вовсе не шагово-последовательный метод расчета. С какого дуба рухнул автор этой статьи, когда это писал?