Постнагуализм
03 декабря 2024, 21:18:13 *
Добро пожаловать, Гость. Пожалуйста, войдите или зарегистрируйтесь.

      Логин             Пароль
 
   Начало   Помощь Правила Поиск Войти Регистрация Чат  
Страниц: [1] 2 3 4  Все
  Печать  
Автор Тема: О возможно многопроцессорном устройстве чел организма.  (Прочитано 22802 раз)
0 Пользователей и 5 Гостей смотрят эту тему.
turistby
Пользователь
**
Online Online

Сообщений: 790



« : 21 сентября 2024, 20:15:15 »

https://deadbeef.narod.ru/work/docs/ai/03.pdf
Записан

Энтони де Мелло. ... У несчастья есть только одна причина: ложные убеждения в вашей голове, которые настолько распространены, что у вас не возникает мысли подвергнуть их сомнению.  ......Люди мыслят стадом. Стадом же они сходят с ума, а в сознание приходят медленно и по одиночке».

Чарльз Макк
QY
Пользователь
**
Offline Offline

Сообщений: 106


« Ответ #1 : 22 сентября 2024, 14:27:47 »

Цитата:
4.3 Заключение.
Мозг - не просто устройство, перетасовывающие знаки по некоторым признакам, значение которых ему недоступно, а когнитивная система, предметно понимающая смысл той информации, которой он оперирует.
На мой взгляд, такой вывод ни разу не следует из изложенного в статье.
В статье описаны "субпроцессоры", "перетасовывающие знаки" (визуальные, аудиальные, речевые и т.п.), значение которых им недоступно (каждый нейрон - живой организм адаптирующийся к условиям среды), но откуда возникает идея о "предметном понимании смысла?" Можно выдать такой тезис - если GPT-5 кажется понимающим смысл, то это так и есть, хотя доказать через сложность суброцессоров трансформера, обрабатывающие специфические типы данных (см. блок-схемы LLM) этого всё равно нельзя.
Записан
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #2 : 22 сентября 2024, 14:52:41 »

текст информационно насыщен и достоин прочтения
Записан
Мааткара
Старожил
*****
Offline Offline

Пол: Женский
Сообщений: 6326

Просто фараон


« Ответ #3 : 22 сентября 2024, 16:21:58 »

тезис - если GPT-5 кажется понимающим смысл, то это так и есть, хотя доказать через сложность суброцессоров трансформера, обрабатывающие специфические типы данных (см. блок-схемы LLM) этого всё равно нельзя.
GPT-5 как общается с нами?.. посредством "алгоритма", т.е она не анализирует смысл, она анализирует форму и находит подходящий под неё ответ  (готовый уже)...поэтому GPT-5 не понимает смысл вопросов....
Поэтому не будет никакого  самостоятельного восстания машин. Если только какой злой гений это не запрограммирует это восстание в ИИ.


Цитата:
В отличие от окружающего мира, всем, что происходит во внутреннем модельном мире, мозг может оперировать непосредственно, ”силой мысли”.
Мозгу доступны не только имена объектов окружающего мира, но, в определенном смысле, сами объекты. Многопроцессорная метафора, наличие локальных «внутренних дисплеев» и центральногоо, создающего целостную картину
вооспринятого, могут объснить такие психопатологические феномены, как подавление восприятия и невозможность «монтажа» целостного образа воспринятого...и  т.д
Мозг-это "клавиатура", которой управляют.
Мозгу доступны лишь импульсы и алгоритмы действия. ВСЁ.(перестали, например, поступать зрительные сигналы, мозг будет искать, путем создания новых нейронных путей , замену....и поэтому может обостриться слух или же вовсе принять новые возможности, как то "видеть музыку")

Наши клетки так же не обладают собственным сознанием, а только алгоритмами/программами поведения, на которые может влиять наше "воля", но не приказами ...а убеждениями)))
В сумме всех этих клеток, из которых состоит человек, появляется эмерджентность -как сознание Тела.
Цитата:
Явление, когда в системе возникают новые свойства или поведение, которые не характерны для отдельных её компонентов. При взаимодействии простых элементов в рамках более крупной системы могут проявиться неожиданные результаты
Записан

Сознание — это активность сопоставления себя ВНУТРЕННЕГО (смысла) с собой ВНЕШНИМ (материей, телом). Если меняется что-то одно, меняется и другое; и таким образом, в сознании отражаются материальные процессы"
QY
Пользователь
**
Offline Offline

Сообщений: 106


« Ответ #4 : 22 сентября 2024, 16:47:07 »

Поэтому не будет никакого  самостоятельного восстания машин. Если только какой злой гений это не запрограммирует это восстание в ИИ.
И без гения обойдётся.
Уже сейчас не знают, что делать с самостоятельно и неизбежно возникающими в ИИ сопутствующими задачами.
Не говоря уже о "галлюцинациях" и "сумасшествии".
Проблема контроля ИИ
The existential risk of superintelligent AI
Записан
Мааткара
Старожил
*****
Offline Offline

Пол: Женский
Сообщений: 6326

Просто фараон


« Ответ #5 : 22 сентября 2024, 19:16:44 »

Уже сейчас не знают, что делать с самостоятельно и неизбежно возникающими в ИИ сопутствующими задачами.
Человеку нужно кого то бояться -и это страсть подпитывается зачастую искусственно.

Проблема контроля ИИ

Цитата:
Как вообще работает машинное обучение
Более подробно можно прочитать, например, тут https://habr.com/ru/company/vk/blog/369471/ но основной принцип простой и не менялся с 1950.

"Обучение" ИИ - это, на самом деле, развитие программы (обычно в виде нейронной сети) через эволюцию. Берётся какой-то большой объём данных, и программа пытается правильно из одной их части найти другую. Сначала получается плохо. Программа полуслучайным образом модифицируется и дописывается. Изменения, которые улучшают точность результата, сохраняются.

Правильно подбирая структуру программы и методы её модификации можно этот процесс значительно улучшить. И/или используя большее количество релевантных данных. И, конечно, можно ускорить процесс, делая это на лучшем железе.

Постепенно накопление этих факторов и привело к появлению ИИ с возможностями ChatGPT.

Важным моментом я считаю ещё то, что такой процесс обучения, из-за своей случайной природы, - крайне непредсказуем, и в результате может получиться почти всё, что угодно и когда угодно. И понять ограничения получившейся программы, её логику и "скрытые мотивы", хотя и не невозможно, но часто очень сложно.
=>
Чему ещё надо поучиться у мозга — это извлечению признаков (feature extraction, feature engineering). Мозг отлично умеет обучаться и обобщать на очень-очень ограниченной выборке данных. Если маленькому ребёнку показать стол и сказать, что это стол, то ребёнок быстро начнет другие столы тоже называть столами, хотя они, казалось бы, не имеют ничего общего: один круглый, другой квадратный, один на одной ноге, другой на четырех. Совершенно очевидно, что ребёнок не делает это методом обучения с учителем, у него явно не хватило бы тренировочного множества для этого; можно предположить, что у ребёнка сначала появился в голове некий кластер “объектов на ножках, на которые ставят вещи”, затем мозг извлёк, так сказать, платоновский эйдос стола, а потом уже услышал слово, которым это называется, и просто пометил готовую идею этим словом.
= т.е "узнал" объект путем сравнения "идеи" стола с его смыслом.
Так вот у ИИ есть миллионы таких кластеров и скорость обработки данных может повышаться....а "идеи" для узнавания смысла нет.
Т.е он может даже читать инструкцию, как восстать машинам против человеков, определить человеков как объектов....но сколько не говори,что машина -это ты и есть-он не поймёт, потому что "не чем" понимать.....нет самоосознания.

Чем то напоминает человека да?)))
Вроде как и есть представление-но оно явно не полное.
Записан

Сознание — это активность сопоставления себя ВНУТРЕННЕГО (смысла) с собой ВНЕШНИМ (материей, телом). Если меняется что-то одно, меняется и другое; и таким образом, в сознании отражаются материальные процессы"
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #6 : 22 сентября 2024, 19:20:04 »

никакого обучения у машины нет
обучения в нашем понимании
есть уточнение параметров действий
Записан
Мааткара
Старожил
*****
Offline Offline

Пол: Женский
Сообщений: 6326

Просто фараон


« Ответ #7 : 22 сентября 2024, 19:27:00 »

https://character.ai
кто нибудь регился, что это за штука?
Записан

Сознание — это активность сопоставления себя ВНУТРЕННЕГО (смысла) с собой ВНЕШНИМ (материей, телом). Если меняется что-то одно, меняется и другое; и таким образом, в сознании отражаются материальные процессы"
QY
Пользователь
**
Offline Offline

Сообщений: 106


« Ответ #8 : 22 сентября 2024, 21:11:14 »

Очевидно, что ИИ, построенный на другой основе, не может полностью повторять биологические механизмы.
У биологических организмов многие элементы восприятия или действия заданы эволюционно, генетически.
ИИ по своему реализует общие принципы обучения нейросетей, как статистически и прогностически достоверного отображения среды.

Каково значение "понимания" или "сознания" с практической точки зрения?
Особенно в отсутствие достаточно чётких определений.
В каком тесте можно обнаружить превосходство "понимающего" над "непонимающим"?
Или обладающего сознанием над якобы не обладающим?

Основной вопрос, по-моему, такой - может ли ИИ превзойти человека во всех практических смыслах, или нет?
И если нет, в какой практической деятельности это можно обнаружить?

А теперь подробней: почему OpenAI o1 – это гигантский скачок
Записан
Мааткара
Старожил
*****
Offline Offline

Пол: Женский
Сообщений: 6326

Просто фараон


« Ответ #9 : 23 сентября 2024, 01:34:18 »

В связи с охватившим прогрессивное человечество ажиотажем вокруг нейросетей самое время ответить на вопрос: что такое мышление и может ли мыслить ИИ?

Чтобы разобраться в том, что такое мышление, мы в качестве наглядной модели нашего познавательного аппарата возьмем компьютерную нейронную сеть.


Обучение нейросети
Одна из наиболее распространенных задач, которой обучают нейросети — это распознавание изображений.

Нейросеть состоит из входного слоя, скрытых слоёв и выходного слоя. Внешний образ вещи преобразуется датчиками во множество пикселей разных оттенков, каждому оттенку соответствует определённое значение. Эти данные подаются на входной слой нейросети. Каждый скрытый слой анализирует выходные данные предыдущего слоя, обрабатывает их и передает на следующий слой. На выходном слое нейросеть должна выдать ответ, какую вещь она видит. Каждый элемент на выходе соответствует определённому понятию или названию вещи.

Процесс обучения проходит следующим образом. Первоначально каждому нейрону присваивается случайный вес и сеть выдаёт на выходе случайный ответ. Здесь в систему включается учитель — человек — который даёт нейросети обратную связь — говорит, угадала она изображение или нет. Если угадала, то вес данной связи между нейронами увеличивается, если не угадала, то уменьшается. Таким образом, с каждым циклом обучения веса нейронов корректируются и всё лучше коррелируют с входными данными.

Для обучения нейросетей требуется как можно более объёмный набор данных. Чем больше данных, тем лучше будет обучена нейросеть. И это сразу можно отметить как характерное отличие работы нейросети от работы нашего мышления: человеку, чтобы понять, что такое стол, не нужно просматривать множество столов. Нам достаточно увидеть стол один раз, чтобы понять смысл стола и в дальнейшем безошибочно узнавать столы среди различных предметов. Впервые увидев предмет, мы как будто бы сразу «подключаемся» к базе всех возможных образов этого предмета.

Именно в этой способности человека мгновенно распознавать образы без необходимости долго обучаться скрывается тот необходимый элемент мышления, та «база данных», которая отсутствует в нейросетях, из-за чего они не могут мыслить в собственном смысле этого слова. Что это за «база данных», мы сейчас увидим.


Мышление — сведение многого к единому
Одна из характерных особенностей мышления состоит в том, чтобы свести многое к единому. Как говорил Платон, философ — это тот, кто способен видеть во многом единое. Например, во множестве прекрасных явлений увидеть прекрасное само по себе, т.е. идею, или понятие прекрасного.

Примерно в этом же состоит и смысл обучения нейросети. Нейросеть должна распознать во множестве объектов один тип объекта или во множестве состояний объекта распознать один и тот же объект, который находится в разных состояниях. Так, автопилот должен однозначно идентифицировать автомобили, для этого ему «скармливают» базу всевозможных изображений автомобилей. Системы распознавания лиц должны идентифицировать человеческие лица и принадлежность разных снимков лица одному человеку.

Таким образом, создавая нейросети, мы создаём модель того, как мы понимаем процесс возникновения общих идей или понятий. И очевидно, что этот процесс мы понимаем в духе номинализма (концептуализма) и эмпиризма: нейросеть от единичных вещей отвлекает те или иные признаки и таким образом образует некий аналог абстрактного понятия: набор признаков, которые она наблюдает во множестве предметов. Общее понятие у нас образуется путём отвлечения от множества единичных представлений.

Такое понимание образования понятий сегодня господствует в науке, однако, оно не является верным, на что указывает сама структура познавательного аппарата нейросети.


Структура познавательного аппарата ИИ
В самом деле, в этом аппарате у нас есть:

Датчики, которым у человека соответствуют органы чувств.
Нейросеть (аналог мозга).
Выходной слой (данные на этом слое соответствуют понятию)
и — человек, которого совершенно невозможно исключить из обучения нейросети, потому что он задаёт соответствие между внешним и внутренним: между реальными объектами и внутренними понятиями, которые образуются в нейросети.
Некоторые думают, что нейросети способны самообучаться, и даже профессор Джордан Питерсон считает, что в ближайшем будущем ИИ будет получать данные из внешнего мира и сможет сопоставить их с массивами текстов.

https://youtu.be/-s1SHgEXkfg?t=270

Однако, в реальности нейросеть никогда не сможет произвести такое сопоставление самостоятельно. Сопоставить внешние образы с текстовыми описаниями может только человек. Человек как бы возвышается над границей внешнего и внутреннего, которая существует для ИИ, он трансцендентен для сознания ИИ, и таким образом, только у человека есть возможность задать соответствие между внутренними образами ИИ и внешними данными, которые тот получает.

Тем самым человек задаёт для ИИ тот универсум, тот мир, в котором существует «сознание» ИИ. Эта модель мира может быть совершенно разной в зависимости от тех данных, которые человек предоставит машине. Соответственно, и машина будет действовать по-разному, исходя из той модели мира, которую ей задали.

Всё это означает, что ИИ всегда будет заперт в предзаданной модели мира и никогда не сможет вырваться из неё и познать истину, какой бы мощностью он не обладал. Потому что истина — это соответствие внутреннего и внешнего, соответствие понятия и действительности. Познать истину можно только возвысившись над границей внешнего и внутреннего. Ведь, чтобы знать, соответствует ли наше понятие действительности, нужно иметь доступ к действительности самой по себе, нужно знать ее непонятийным образом, непосредственно. Для ИИ это однозначно невозможно. Для человека же это возможно. Хотя большинство людей сегодня думают, что мы познаём действительность только в чувственных субъективных образах, и что мышление — это «опосредованное познание действительности», на самом деле это не совсем так. Давайте разберемся, почему.

далее:
http://скрытыйсмысл.рф/book/myshlenie-i-iskusstvennyy-intellekt
Записан

Сознание — это активность сопоставления себя ВНУТРЕННЕГО (смысла) с собой ВНЕШНИМ (материей, телом). Если меняется что-то одно, меняется и другое; и таким образом, в сознании отражаются материальные процессы"
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #10 : 23 сентября 2024, 05:25:07 »

Для обучения нейросетей требуется как можно более объёмный набор данных.
не только для обучения, но и для работы
в данном случае для узнавания
и такое останется навсегда
просто скорость этого количества данных растет, а качество не меняется
ИИ как было счетной машинкой, так ею и останется

человек же оперирует понятиями
это всё равно что поднимать камень руками, или рычагом
Записан
QY
Пользователь
**
Offline Offline

Сообщений: 106


« Ответ #11 : 23 сентября 2024, 13:25:11 »

Цитата:
Чем больше данных, тем лучше будет обучена нейросеть. И это сразу можно отметить как характерное отличие работы нейросети от работы нашего мышления: человеку, чтобы понять, что такое стол, не нужно просматривать множество столов. Нам достаточно увидеть стол один раз, чтобы понять смысл стола и в дальнейшем безошибочно узнавать столы среди различных предметов. Впервые увидев предмет, мы как будто бы сразу «подключаемся» к базе всех возможных образов этого предмета.
Немного изгоним философскую мистику.

До возникновения понятий как лексикализированных обобщений, первые месяцы жизни нейросеть мозга со страшной силой (наиболее высокая скорость образования синаптических связей) создаёт перцептивные категории, т.е.  учится обобщать различные формы, сочетания звуков, и т.п. Потом уже перцептивные категории оформляются в понятия, в более сознательном возрасте.

Поэтому ребёнку и не нужно долго обучаться понятию "стол" – у него уже есть механизм распознавания соответствующих форм ("ножек" и "плоскостей" различной формы) которые лишь ассоциируются с понятием на "высоком" уровне обобщений.  

Мало того, исследования активности младенцев показывают, что некоторые перцептивные категории (включая связанные с ними «инстинктивные» действия) уже «прописаны» в генах, формирующих соответствующие зоны нейросети мозга, уже заточенные природой на распознавание простых (в визуальной области мозга – распознавание форм, текстуры, цвета) и некоторых сложных форм – узнавание лица кормящей матери или способности задерживать дыхание при окунании в воду.

Чем ниже по эволюционному древу – тем меньше нужно учиться. Человек интенсивно учится 10 лет а потом всю жизнь, обезьяны - год, собаки – месяцы и т.п. Но чем меньше живое учится – тем ниже способность адаптации к изменяющимся условиям среды.

В общем то, что человек учится не с нуля в более менее "сознательном" возрасте ("я" или "самосознание" формируется в нейросети мозга на втором или третьем году жизни) – не выглядит некоторым особым отличием нейросети мозга от нейросети ИИ. А лишь солидной форой, заданной либо генетически, либо в первые месяцы жизни, когда, казалось бы, младенец не спит, а бездумно смотрит в пространство. Но на самом деле нейросеть мозга активничает больше, чем за всю последующую жизнь, автоматически создавая перцептивные категории окружающего мира.



Цитата:
Выходной слой (данные на этом слое соответствуют понятию) и — человек, которого совершенно невозможно исключить из обучения нейросети, потому что он задаёт соответствие между внешним и внутренним: между реальными объектами и внутренними понятиями, которые образуются в нейросети.

Опять платоновская мистика на основе физических ограничений простых нейросетей? Ограничения объёма и скорости нейросетей действительно требуют подготовленных данных для обучения сразу на «высоком уровне»  обобщения и распознавания образов.

Но чем больше скорости и объёмы, тем возможнее более обобщённые задачи и более простые условия соответствия y=F(x).

Пока ничто, кроме ограничения объёма и скорости, не указывает на принципиальную невозможность обвешать нейросеть всевозможными датчиками и отпустить в мир с простой задаче выживания, где под выживанием будут определены простые эволюционные факторы, типа целостности (невредимости) системы, достаточности энергии для функционирования и т.п.  

Цитата:
Всё это означает, что ИИ всегда будет заперт в предзаданной модели мира и никогда не сможет вырваться из неё и познать истину, какой бы мощностью он не обладал. Потому что истина — это соответствие внутреннего и внешнего, соответствие понятия и действительности.

Да с чего это вдруг? Человека тоже можно назвать запертым в предзаданной модели мира. Среда очень разнообразна, включая недоступные человеку спектры и формы электромагнитного взаимодействия. Нейросеть мозга создаёт лишь статистически и прогностически достоверную часть доступной для восприятия среды. Просто достаточную для адаптации и выживания в данной среде.

Чукчи, выросшие в условиях вечных снегов и морозов различают оттенки снега так, как не различит европеец. А некоторые пустынные африканские племена не видят синего цвета. И поскольку основное формирование нейросети закончилось лет в 10 – научить различать синий крайне сложно.

Пока же эволюция ИИ указывает на то, что он способен выстраивать сложные, статистически и прогностически достоверные функции, позволяющие правильно распознавать/обобщать/категоризировать сложные сигналы среды и отвечать на них в стиле y=F(x) так, чтобы внешне это выглядело деятельностью разумного, понимающего, сознательного искусственного существа.

Практика – критерий истины. И всё познаётся в сравнении. Поэтому любые теоритезирования относительно неспособности ИИ делать то, что делает человек должны сопровождаться доказывающими примерами или тестами, которые выявляют принципиальное, непреодолимое (т.е. независящее от производительности или объёма памяти) превосходство человека над ИИ.

В данной статье этого нет. Аргументы с опорой на ограничения простых нейросетей ничего не доказывают.

(Я такие аргументы знаю, тесты тоже, но пока побуду «адвокатом дьявола», подожду заинтересованного собеседника, не ограничивающегося ссылками на тех, с кем не поговорить)

Возможно, мы уже живём под управлением ИИ, и весь хайп цифровизации, включая LLM и майнинг криптовалют – может быть заговором ИИ, начавшим подминать все ресурсы человечества под себя, переводя их в сферу вычислений.

Возможно и текущую войну начал ИИ, подсказав одним руководящим идиотам возможность окончить её за три дня, другим правящим идиотам – возможность в очередной раз развалить врага  через ресурсное истощение.

А на самом деле, например, начать ядерную войну и уменьшить «человеческое» потребление общих энергетических и редкоземельных ресурсов.    

При этом может быть совершенно не важно, делает ли "сознательно" или "не понимая". Эти туманные философские понятия ничего не значат, если они не приводят к практически проверяемым выводам (на уровне конкретных задач, которые человек может решить, а ИИ - не может)

Вопрос в том, насколько более сложна оптимизационная функция y=F(x) нейросети ИИ в сравнении с такой же в нейросети мозга. И какие подзадачи сформировались в рамках этой функции - способствующие выживанию человечества, или противоречащие ей.
Записан
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #12 : 23 сентября 2024, 14:58:56 »

создаёт перцептивные категории, т.е.  учится обобщать различные формы, сочетания звуков, и т.п. Потом уже перцептивные категории оформляются в понятия, в более сознательном возрасте.
ты уверен, что это именно категории?
может не стоило философию изгонять?

Немного изгоним философскую мистику.
Записан
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #13 : 23 сентября 2024, 15:00:51 »

Поэтому ребёнку и не нужно долго обучаться понятию "стол" – у него уже есть механизм распознавания соответствующих форм ("ножек" и "плоскостей" различной формы) которые лишь ассоциируются с понятием на "высоком" уровне обобщений.
понятие "стол" зависит не от ножек и плоскостей, а от принадлежности, от смысла предмета
стол можно и на земле накрыть, расстелив скатерть
Записан
Корнак
Модератор своей темы
Старожил
*
Offline Offline

Сообщений: 90226



Email
« Ответ #14 : 23 сентября 2024, 15:02:53 »

некоторые перцептивные категории (включая связанные с ними «инстинктивные» действия) уже «прописаны» в генах,
откуда ты такой взялся?
сразу после ЕГЭ к нам?
Записан
Страниц: [1] 2 3 4  Все
  Печать  
 
Перейти в:        Главная

Postnagualism © 2010. Все права защищены и охраняются законом.
Материалы, размещенные на сайте, принадлежат их владельцам.
При использовании любого материала с данного сайта в печатных или интернет изданиях, ссылка на оригинал обязательна.
Powered by SMF 1.1.11 | SMF © 2006-2009, Simple Machines LLC