Спасибо =) Погуглил чуток, любопытная тема. Вдвойне любопытная тем, что исходно вообще не особо имеющая отношение к ИИ =) В оригинале это формантный синтез, т.е. скорее DSP. Хотя сейчас уже Deep Learning туда прикручивают, куда ж без него. Но в середине 2000х его еще не было. Впрочем, Deep Learning это тоже так себе ИИ, хотя может это для тех, кто с ним каждый день работает =)
Любопытно, что и сам ИИ в своем начальном оригинале не имел ничего общего с интеллектом, а относили к сфере ИИ программы, которые выполняли задачи, прежде выполняемые людьми умственного труда. Причем, сами эти программы тогда ни малейшего интеллекта не проявляли, а были лишь логическими автоматами для формализации мыслительных операций, которые изначально выполнял человек. А если бы к тому времени не изобрели механический арифмометр, то и программа-калькулятор вполне подходила бы под тогдашнее определение ИИ.
К типу ИИ в то время относили и программы поиска оптимума полным или частичным перебором вариантов. А поскольку компьютер перебирал и оценивал варианты гораздо быстрее, чем человек, то полученный результат казался человеку разумным выбором, хотя в действительности он таким не являлся. Типичным тому примером были первые шахматные программы, которые единогласно относили к классу ИИ, хотя реально это были программы на поиск оптимума (максимального score) при глубоком переборе вариантов вглубь. А то еще и в купе с базой когда-либо сыгранных на турнирах шахматных партий.
В близкой мне области - аналитической химии тоже есть подобного рода программы, относимые к классу ИИ, для определения формулы вещества по результатам его физико-химических анализов (чаще спектральных). Там тоже шел сперва поиск по библиотеке спектров (она же база данных) чего-то похожего, а затем кластерный анализ этой выборки для выявления списка претендентов, для каждого из которых генерировался теоретический спектр, который и сравнивался с экспериментальным. Однако по нынешнему времени задачи такого типа выглядят чисто алгоритмическими, а вовсе не интеллектуальными. Тем паче, что Deep Learning в них не использовался.
Нас же сейчас ИИ интересует не в той части, где он может имитировать человеческое мышление или механизмы работы мозга, а как раз с противоположной стороны - там где приёмы, характерные для человеческого мышления, не используются. А стало быть, и сведено к минимуму любое инструктирование, когда программист, так или иначе, задает последовательность действий, приводящих к результату. Тем самым, по возможности ликвидировать влияние на решения, принимаемые ИИ, субъективных привычек и предпочтений программиста.
Здесь есть определенные тонкости, касающиеся вопроса о том, насколько создатель программы (а в более широком смысле - создатель любого устройства) влияет на результаты ее работы. Есть такая пословица: "Нечего на зеркало пенять, если рожа крива"
, где подразумевается, что мастер производящий зеркала, не указывает зеркалу, что ему отражать, а зеркало само "решает" этот вопрос по текущей ситуации. Казалось бы ситуация ясная, ан нет! Скажем, даже на нашем форуме многие считают, что фотоаппарат или видеокамера не показывают ауру или светящуюся "точку сборки" только потому, что ее создатель/изобретатель не верит в ауру и не читал Кастанеду. И потому де запретил фотоаппарату/камере их фотографировать. Бытует и более мягкая формулировка, где слово "запретил" заменено на "не предусмотрел возможность", смысл которой недалеко уходит от первой формулировки, т.к. в обеих вариантах автор устройства осуществляет цензуру получаемого изображения, исходя из своего предвзятого отношения к его деталям/элементам. Вот и гильотина отрубила голову своему изобретателю Жозефу Гильотену (по слухам) - тот при всем желании не мог внести в конструкцию гильотины нечто такое, чтобы она рубила головы всем, кроме его собственной головы.
Аналогичная ситуация и с компьютерными программами. Есть среди них такие, которые целиком работают на "подсказках" изобретателя. Типичный пример - стиральная машина автомат, где буквально на все ситуации, которые происходят при стирке белья, есть готовые советы/инструкции. Потому и имя ей - автомат. Но бывают и программы иного сорта - скажем та же шахматная программа, работающая на принципе анализа вариантов. В последнем случае ее изобретатели/программисты лишь определяют алгоритм сравнительной оценки вариантов другом с другом, но отнюдь не подсказывают машине, какой ход ей делать. Более того, сам программист при этом может играть в шахматы довольно слабо.
Радует, что ИИ на принципе Deep Learning близок к программам второго рода - тем, где ситуация сильно довлеет над априорными подсказками. Именно поэтому ИИ зачастую способен делать то, что его изобретатель/программист сам сделать не в состоянии, отчего и обвинить его в предвзятости трудновато. Скажем, я недавно встретила описание программы на ИИ-принципе для ... подсчета числа автомобилей на стоянке. Причем, программа не велика в размерах - помещается в памяти мобильного телефона и использует его же камеру. Должно быть ясно, что результату этой программы вполне можно доверять, как ... гильотине
. Т.е. если сам программист заедет на ту стоянку на своем авто, про программа его тоже посчитает и денежку за постой с него тоже возьмет
.
А вот по поводу связки Вокалоидов с нагуализмом не совсем понял. Для меня ML скорее про то, что из того, что мы привыкли считать сознательной, чуть ли не творческой деятельностью, на самом деле допускает "множественность реализации" и вообще не требует присутствия человека. Что ты имеешь в виду под "вокалоидным дублем"? Попытку, условно говоря, структурировать свой Тональ в соответствие с логикой ML систем? Или реализацию некоего "сильного ИИ"?
Тут имеет место целый комплекс представлений, о которых можно говорить долго. А потому коснусь только самого главного (на мой взгляд).
То размежевание программ на автоматы и интеллектуальные, я провела не по признаку наличия или отсутствия ИИ, а по признаку того, что доминирует при получении результата - данные об анализируемой ситуации или априорные инструкции. При этом отдавая себе отчет в том, что в чистом виде то и другое встречается крайне редко. Более того, предварительно обученный ИИ вполне может работать как автомат, никаких интеллектуальных качеств не проявляя. Вот и автоматы в некоторых случаях действуют согласно ситуации, хотя заранее не все ситуации были предусмотрены (учтены при программировании) их создателями.
Тем не менее, это размежевание крайне важно по своим аналогиям. Например, в философии это размежевание на объективное и субъективное, где объективное ближе к ситуации (от слова "объект"!), а субъективное ближе к реакции автомата, над которым довлеет собственное устройство.
Точно та же самая проблема размежевания возникает и в биологии человека, будучи поставленной в виде вопроса: "В какой мере поведение человека обусловлено его наследственностью (строением тела и органов чувств), а в какой мере он способен эффективно действовать по ситуации, которая эволюцией генома никак не могла быть заранее предусмотрена?". Здесь тоже действие по ситуации может быть отнесено к интеллектуальной деятельности, а врожденные и приобретенные условные инстинкты отнесены к категории автоматических реакций.
Вот и нагуализм по Кастанеде тоже видит причину неспособности обывателя к магии в том, он "зомбирован" социумом. Т.е. социальные установки, с детства некритично воспринятые его сознанием, в дальнейшем определяют доступный для данного человека спектр восприятия реальности. Это поразительно близко к ситуации с ИИ, которого на большом объеме фотографий обучили различать кошек от собак, а затем внезапно предъявили для опознания фотографию обезьяны, которую этот ИИ опознал, как собаку. Вот и нагуализм по Кастанеде тоже склонен объяснять невидимость магии тем же аргументом - неспособностью различать магические явления по причине их отсутствия на этапе первичного обучения. Типа того, что они присутствуют в мире, подобно обезьянам, но мы их принимаем за собак
. Оно и в исторической перспективе так было - вместо бегемота европейцы видели единорога, отождествляя его с известным им конем. А Георгий Победоносец с большой помпой убивает гидру, которая на самом деле - крокодил
.
Такая позиция нагуализма довольно неприятна для науки
, т.к. подтачивает объективность инструментальных датчиков, переводя стрелку на субъективные человеческие "недостатки". Скажем, тот же фотоаппарат/видеокамера могут достаточно точно сфотографировать живого бегемота, но человек и по фотографии все равно идентифицирует его, как коня с рогом во лбу, если прежде, кроме лошадей и коров, других крупных животных никогда не видел.
Но если дело обстоит именно так, как сказано в предыдущем абзаце, то для того, чтобы познать мир более полно и более объективно, следует расширять узкое место, которым в этом случае оказывается не ограниченность чувственного восприятия, а ограниченность механизма интерпретации воспринятого. Отсюда вытекают и кастанедовские практики, большинство из которых можно отнести к средствам ломки традиционных привычек/штампов. Среди которых можно назвать отход от привычного социального окружения из-за опасения, что мнения окружающих (а более всего знакомых) будет довлеть над индивидом, делая его похожим на всех. Тут и кардинальная смена обстановки, чтобы перестали автоматически срабатывать привычные реакции на знакомые ситуации. Тут и изменения привычной походки, сканирования зрительной картинки глазами и много всего прочего, в общем-то подчиненное одной и той же цели - переучить ранее обученный интеллект в условиях, когда результаты прежнего обучения стереть не удается. Тогда как в отношении ИИ такой проблемы нет, т.к. у него всегда возможно удалить/стереть прежний опыт и начать обучение с нуля на другой обучающей выборке.
В этом отношении ИИ может оказаться нам полезным, поскольку его способы распознавания изображений далеко не всегда базируются на обучении с готовыми ответами, прилагаемых человеком к обучающей выборке, а есть и такие алгоритмы, когда обучающая выборка подсказок не содержит, а задача сводится к тем или иным вариантам классификации (кластеризации), когда сами классификаторы заранее человеком не задаются. Скажем, фотографии кошек и собак ИИ вполне мог бы самостоятельно рассортировать на два кластера по принципу "максимальной непохожести". И такое деление было бы в значительной степени объективным. Тогда как полицейский фоторобот, а настоящее время нашедший широкое применения для распознавания лиц прохожих с помощью видеокамер, установленных в метро и других людных местах, таковым уже не является, т.к. там уже имеется готовая система классификаторов в виде фотографий из базы данных паспортов граждан. А стало быть, нам для наших целей было бы нужно иметь "естественную" классификацию, пусть на первых порах ограниченную фотографиями. Причем именно с целью максимального усечения влияния на результат субъективно-предвзятых социальный установок, которые всем нам свойственны, а избавится от них очень трудно, т.к. завязаны они на бытовуху.