идею ИИ в значительной мере скопировали из структуры головного мозга, т.е. пошли по глинобитному варианту
Не совсем так. Идея ИИ шире чем нейронные сети из искусственных псевдонейронов.
Да эти сети успешно справляются с операциями которые раньше считались интеллектуальными,
типа игра в шахматы, но там важнее оказалась комбинаторика, с которой компы справляются
лучше. Они созданы для того что бы считать, ну вот и результат.
Если есть тест, который ИИ не сможет пройти по некоторым принципиальным основаниям (модель не реализует принцип), тогда расскажите о нём.
Были попытки сделать с виду простую вещь - робота официанта обслуживающего вечеринку (в Штатах естественно).
И столкнулись с такой кучей проблем, что ужаснулись результату. Он же не житель нашего (человеческого)
мира и многое в нас ему не понятно. Его обучали на текстах и он создал языковую модель, а как дошло до
дела, то начались ляпы один за другим. Он путал кто и что заказал, он не находил пациента который кинул
через плечо "плесни дружок ещё", короче он полностью провалил тест.
Я найду книгу в которой это читал и сброшу ссылку. Писали её вовсе не враги ИИ, а разработчики именно ИИ.
И писали, что бы показать реальные трудности с которыми столкнулись в своей работе.
Не с целью облажать ИИ, а с целью обозначить как раз не решённые проблемы.
По их мнению этот тест ИИ провалил полностью, а вот если бы его прогнали через знаменитый тест Тьюринга,
он бы его скорее всего прошёл, языковая модель у него удачная, но плохо приспособлена для ориентации
в простых житейских ситуациях, это когда надо не поговорить, а сделать набор действий заранее не расписанных,
т.е. построить некий план и выполнить его в условиях постоянно меняющихся. На вечеринке все не сидят
как приклеенные на местах, они ходят, выпвают, танцуют и...так далее. А он не успевает отслеживать кто где и чем занят.
Так что на вопрос где именно:
модель не реализует принцип
ответ прост: принцип ориентации в динамическх ситуациях с неопределённым заранее алгоритмом действий.