[image]

Новости ИИ

 
1 2 3 4 5
MD Wyvern-2 #14.09.2016 11:37  @Balancer#13.09.2016 16:03
+
-
edit
 

Wyvern-2

координатор
★★★★★
Alexandrc>> Дык уже года два как :D
Balancer> В широком понимании этого понятия :)

Существует миф (назовем его миф N1) о том, что тест Тьюринга может разрешить спор между теми, кто верит, что машина (компьютер) может мыслить и теми, кто в этом глубоко сомневается. Не знаю, понимал ли это сам Тьюринг до конца, но приведенная фраза рискует оказаться пророческой. Я думаю ни у Тьюринга и ни у кого другого нет и скорее всего никогда и не будет четких аргументов в пользу той или иной точки зрения. "Может ли компьютер мыслить?" - останется таким же вечным вопросом веры, как вопрос "Есть ли бог?". Даже если предположить, что искусственный интеллект будет однажды создан, и он действительно станет неотличим в смысле Тьюринга от интеллекта естественного, все равно никто, никому не сможет точно это доказать.
 
[round_box]

Z-МЕХАНИКА+


[Свежие записи][Архив][Друзья][Личная информация]
[

// Дальше — alex-semenov.livejournal.com[/round_box]
   48.048.0
ZA Balancer #14.09.2016 14:30  @Wyvern-2#14.09.2016 11:37
+
-
edit
 

Balancer

администратор
★★★★★
>"Может ли компьютер мыслить?" - останется таким же вечным вопросом веры, как вопрос "Есть ли бог?".

Конечно. Мы же не можем даже ответить, мыслим ли мы сами :) Это не формальное фальсифицируемое утверждение.

Так что единственный разумный ответ — субъект будет считаться мыслящим и разумным, если мы его таковым будем субъективно считать.

– Дач, а твой корабль и вправду был разумным? – спросил его Томми на одном из коротких привалов.

– Я программировал псевдосвободу поведения.

– И что это значит?

– Он старался выглядеть личностью. Любой священник или программист докажет тебе, что это не имеет никакого отношения к разуму. Просто неотличимая имитация.

– И какая тогда разница?

– Да никакой…
 
   33
MD Wyvern-2 #14.09.2016 20:07  @Balancer#14.09.2016 14:30
+
-
edit
 

Wyvern-2

координатор
★★★★★
Balancer> Так что единственный разумный ответ — субъект будет считаться мыслящим и разумным, если мы его таковым будем субъективно считать.

Так не честно! Приводить в "споре" со мной мою любимую цитату :F
   41.041.0
+
-
edit
 

AntiMat

опытный

>>"Может ли компьютер мыслить?" - останется таким же вечным вопросом веры, как вопрос "Есть ли бог?".
Balancer> Конечно. Мы же не можем даже ответить, мыслим ли мы сами :) Это не формальное фальсифицируемое утверждение.

Мыслим, т.к. это же просто обозначение феномена, которое и не требуется проверять. С пониманием законов сохранения разрешился вопрос о вечном двигателе, с пониманием химических связей и строения материи разрешился вопрос о превращении металлов в золото. И утверждение о вечности того вопроса — вот это как раз вера, причём пораженческая. :p
   48.048.0
+
-
edit
 

Balancer

администратор
★★★★★
>>> останется таким же вечным вопросом веры, как вопрос "Есть ли бог?".
Balancer>> Конечно. Мы же не можем даже ответить, мыслим ли мы сами :) Это не формальное фальсифицируемое утверждение.
AntiMat> Мыслим, т.к. это же просто обозначение феномена, которое и не требуется проверять.

Ага. И «Бог» — тоже название феномена, которое не требуется проверять :)

Феномена мышления нет. Это нечто не измеряемое. Более того, я имел в виду и ещё более печальное явление из области солипсизма. Нет никакой фальсифицируемости утверждения, что мыслят все окружающие. Даже если я назову то, что мне кажется мышлением в своей голове этим термином, совсем нет никаких доказательств, что то же самое происходит в головах других. Мне приходится считать, что это так основываясь только на их собственных утверждениях и на моём анализе их поведения. Точно также, как выше было сказано про ИР. Если ИР говорит, что мыслит, если его поведение отвечает моим представлениям о мыслящем существе, то мне придётся просто поверить, что он мыслит. Проверить всё равно невозможно. Как ты не можешь проверить, что мыслю я. А не являюсь, скажем, «китайской комнатой».
   33
RU Balancer #15.09.2016 07:01  @Wyvern-2#14.09.2016 20:07
+
-
edit
 

Balancer

администратор
★★★★★
Wyvern-2> Так не честно! Приводить в "споре" со мной мою любимую цитату :F

Лукьяненко любит эту тему философствовать. Как, например, феноме Шеали из «Спектра». Целая раса, у взрослых особей которых разум выключался как ненужный, оставляя только очень развитой интеллект (привет, «Ложная слепота»!).
   33
ZA Alexandrc #15.09.2016 09:04  @Balancer#15.09.2016 07:01
+
-
edit
 

Alexandrc

аксакал

Balancer> Лукьяненко любит эту тему философствовать.

Да все кому не лень любят пофилософствовать на эту тему. Открываю утром Твиттер, а там это :-D

Почему ваше «я» всего лишь иллюзия

Казалось бы, наша личность, наше собственное «я» — это то, в чём мы можем быть уверены. Однако некоторые философы считают, что это только иллюзия. // lifehacker.ru
 

(Хочется пошутить, что вчера забанили порнхаб и пользователи интернета вспомнили про свое я :-D )

По вопросу сколько мы знаем о своем мозге:
Мы однозначно используем гораздо больше 10% мозга, но понимаем пока что примерно 10% из всего этого.
 

Из «Мы используем лишь 10% от всего мозга» и другие мифы / Geektimes
Думаю понятно какое качество будет иметь модель (ИИ) при таком знании.
   
+
-
edit
 

AntiMat

опытный

Balancer> Феномена мышления нет. Это нечто не измеряемое.

Есть! О боге доступны только пятые-десятые пересказы, но вот мышление — оно единственное абсолютно истинное наблюдение для каждого мыслящего по Декарту.

Balancer> Более того, я имел в виду и ещё более печальное явление из области солипсизма. Нет никакой фальсифицируемости утверждения, что мыслят все окружающие.

Вот это уже другое. Но именно потому, что существует феномен мышления и существует естественная граница между "я" и "не я", то и возникает вопрос, как объективно-достоверно понять, что "не я" это именно другое "я", а не "никакое не я". Сейчас положение науки в этом деле немного напоминает алхимиков, но хоть с той обнадёживающей разницей, что алхимики были совсем уж беспомощные, слепые и наивные котята. Ну так это и надо говорить, что у нас нет модели мышления, и потому тест Тьюринга сродни карго-культу — сделать что-то внешне похожее без понимания механизмов явления, потому сейчас остаётся только философствовать, окажется ли оно похоже на явление в т.ч. и по сути или же нет.
   48.048.0
+
+1
-
edit
 

AntiMat

опытный

Balancer> Даже если я назову то, что мне кажется мышлением в своей голове этим термином, совсем нет никаких доказательств, что то же самое происходит в головах других. Мне приходится считать, что это так основываясь только на их собственных утверждениях и на моём анализе их поведения. Точно также, как выше было сказано про ИР. Если ИР говорит, что мыслит, если его поведение отвечает моим представлениям о мыслящем существе, то мне придётся просто поверить, что он мыслит.

Вот всё же тут большая разница между другими людьми и компом с якобы ИР. Люди-то в известных пределах одинаковые, так что по Оккаму приходится полагать их одинаково разумными, ну, с точностью до наблюдаемых различий генетики-воспитания и пр. А вот ИР с заведомо нечеловеческой архитектурой пока дело тёмное. Потому и обосновано желание скопировать человеческий разум в лоб, что это уж гарантированно должно сработать, покуда нет понимания, можно ли как-то иначе. И вполне может оказаться, что как-то иначе можно. Вон, изготовить практичный орнитоптер, чтоб парить в небе аки птица, оказалось сложнее, чем самолёты-вертолёты, которые хоть и не копируют птицу в точности, однако обладают даже бОльшими возможностями.
   48.048.0
+
-
edit
 

Balancer

администратор
★★★★★
AntiMat> О боге доступны только пятые-десятые пересказы, но вот мышление — оно единственное абсолютно истинное наблюдение для каждого мыслящего по Декарту.

Да. Но я могу быть уверен (и то с рядом допущений) только в том, что мыслю я. А что ты мыслишь — я уже не знаю, а только верю :)

AntiMat> Вот это уже другое.

То же самое в фундаменте.

AntiMat> то и возникает вопрос, как объективно-достоверно понять, что "не я" это именно другое "я", а не "никакое не я"

А вот это ты узнать никогда не сможешь. Только поверить. Это не фальсифицируемо.

AntiMat> потому сейчас остаётся только философствовать

И так будет всегда. Ты никогда не сможешь убедиться в существовании даже физической реальности :)
   33
+
-
edit
 

Balancer

администратор
★★★★★
AntiMat> Вот всё же тут большая разница между другими людьми и компом с якобы ИР. Люди-то в известных пределах одинаковые

Разница не большая. У людей одинаковая только архитектура. Реализация мозга у всех индивидуальная.

AntiMat> А вот ИР с заведомо нечеловеческой архитектурой пока дело тёмное. Потому и обосновано желание скопировать человеческий разум в лоб

В лоб не получится :) ИМХО, для любого, более-менее в теме, это очевидно уже лет 50 как, если не больше.

AntiMat> Вон, изготовить практичный орнитоптер, чтоб парить в небе аки птица, оказалось сложнее, чем самолёты-вертолёты, которые хоть и не копируют птицу в точности, однако обладают даже бОльшими возможностями.

И так тоже.
   33
+
-
edit
 

AntiMat

опытный

Balancer> Да. Но я могу быть уверен (и то с рядом допущений) только в том, что мыслю я.

А какие ещё допущения? Просто вот этот самый процесс самонаблюдения психических состояний и поименован разумом/сознанием/мышлением.

Balancer> А вот это ты узнать никогда не сможешь. Только поверить. Это не фальсифицируемо.
AntiMat>> потому сейчас остаётся только философствовать
Balancer> И так будет всегда. Ты никогда не сможешь убедиться в существовании даже физической реальности :)

Если сводить к солипсизму, то с равным успехом можно заменить мышление постороннего индивида на любой другой элемент из реальности, даже более проверенный. Я тогда и в электроны верю.

Balancer> Реализация мозга у всех индивидуальная.

Я это отметил. У людей много чего реализовано индивидуально, что свои одинаковые функции выполняет при этом.

Balancer> В лоб не получится.

Технические сложности или принципиальные физические? Алхимики принципиально не могли получить золото, т.к. не понимали, что им доступны лишь энергии химических связей, тогда как нужные им свойства золота задаются зарядом ядра и это уже совсем другие энергии и технологии. Сейчас в принципе получить золото из иного металла возможно, только сложно и не в товарных количествах. Тут же больше про то самое понимание, т.е. построение абстрактной модели явления. А то когда-то человеку летать тоже не судьба была, и многие думали, что навсегда так, так и алхимики тоже много чего думали, дело в степени соответствия знаний о реальности этой самой реальности.
   48.048.0
+
-
edit
 

Balancer

администратор
★★★★★
Balancer>> Да. Но я могу быть уверен (и то с рядом допущений) только в том, что мыслю я.
AntiMat> А какие ещё допущения?

Банально — что моё самоощущение есть некое проявление высшей нервной деятельности, а не результат работы программы :)

AntiMat> Просто вот этот самый процесс самонаблюдения психических состояний и поименован разумом/сознанием/мышлением.

Если моё мышление жёстко запрограммировано, то это идёт вразрез с общепринятой семантикой данных терминов :)

AntiMat> Если сводить к солипсизму

Это только один из вариантов. Крайний. Скажем, вариант, что мыслю только я — это уже не чистый солипсизм. Окружающая Глубокая Реальность вполне может существовать (что уже идёт вразрез с солипсизмом), просто я могу быть единственным мыслящим существом :)

AntiMat> Я тогда и в электроны верю.

Не совсем так. С электронами ты доверяешь не им, а объективности восприятия окружающей реальности. Ты веришь в познаваемость физической Вселенной, электроны — уже прямое следствие. Вот вера в наличие Глубокой Реальности и её познаваемости — это уже да, нефальсифицируемо.

AntiMat> Я это отметил. У людей много чего реализовано индивидуально, что свои одинаковые функции выполняет при этом.

Ну так и ИР определённого вида вполне сможет выполнять одинаковые с человеком функции. А ИИ это частным порядком делает уже сегодня :)

AntiMat> Технические сложности или принципиальные физические?

В рамках современного представления о структуре мозга его имитация может быть... только 100% мозгом :) На тех же структурах, с той же физхимией, с той же структурой. И с теми же ограничениями. Но с точки зрения задачи это провал. Потому что человечество штампует такие изделия уже миллион лет :)

Любые технологические отличия сразу приведут к отличиям качественным. Но нам тогда нет смысла копировать человеческий мозг, это можно будет сделать проще и эффективнее на других платформах и принципах. Как ты верно сравнил птиц с самолётами.
   33
+
-
edit
 

AntiMat

опытный

Balancer> Банально — что моё самоощущение есть некое проявление высшей нервной деятельности, а не результат работы программы :)

Что угодно. Сам феномен в том, что нечто думает, что оно думает, хоть железками, хоть ещё чем. Далее отвергаю солипсизм как неконструктивный, полагаю что наблюдаемую реальность можно худо-бедно достоверно анализировать, помню Оккама и получаю людей, которые с нужной мне точностью такие же, как я, и потому можно считать, что они как минимум тоже думают, что они думают, при всём прочем разнообразии. И, я упустил ранее этот момент, таки есть возможность объективных измерений состояний мозга, динамики его активности. Постепенно пространственное и временное разрешение таких карт состояний улучшается, пусть пока и недостаточно, но я апеллирую к неопровергнутой возможности в будущем технически и объективно измерить это самое состояние, вызывающее субъективное ощущение "я думаю, что я думаю", сравнить с другими людьми, ну и далее уже вычленять общее в индивидуальных мозгах, которое и соответствует данному феномену. Главное с хорошим инструментом пробраться в этот чёрный ящик и получить уже непосредственное соответствие объективного состояния, субъективного состояния и внешнего проявления. Или вдруг окольным путём нащупать сходное решение, но тут в любом случае придётся сравнивать с человеком, как единственным доступным эталоном.

Balancer> Но с точки зрения задачи это провал. Потому что человечество штампует такие изделия уже миллион лет :)

Оно штампует только слепо, а я осознанно хочу. Чтобы было понятно в каком состоянии мозга возникает то самоощущение, в каком нет, изменение каких связей оказывает то или иное психическое состояние или же не оказывает никакого. Как этот субъективный наблюдатель взаимодействует с памятью, с внешними раздражителями, как он принимает решения о взаимодействии со внешним миром, как можно обеспечить это взаимодействие без него и т.д. И чтоб моделирование совпадало с поведением на эксперименте. Вот тогда можно будет с уверенностью без философствований говорить о природе разума, его возможных формах, границе, когда имитация начинает обладать свойством оригинала — т.е. исчерпывающе теоретически разобрать тест Тьюринга. Сейчас получена полная карта нейрональных связей нематоды. Ну... не густо, но уже начало для какой-то работы.

Balancer> Любые технологические отличия сразу приведут к отличиям качественным. Но нам тогда нет смысла копировать человеческий мозг, это можно будет сделать проще и эффективнее на других платформах и принципах. Как ты верно сравнил птиц с самолётами.

В итоге главное чтобы результат совпадал с теоретическим предсказанием, а теория пока в зачатках. Мозг стоит воспроизводить по модели и сличать результат с оригиналом-эталоном. Тут на форуме было где-то про моделирование взаимодействия зрительной зоны с долговременной и кратковременной памятью, получилось похоже на живой образец. Даже при копировании птицы можно с большой пользой воспроизвести частный случай парящего полёта, добавить двигатель и свободный полёт с опорой на воздух достигнут. Эволюция же слепая дура, просто с большой форой времени и ресурсов, разум у неё получился случайно. Может и можно мозг исправить-дополнить, не потеряв при этом объективно измеряемую (с гипотетической позиции из будущего науки) разумность.
   48.048.0
+
-
edit
 

Balancer

администратор
★★★★★
AntiMat> Что угодно. Сам феномен в том, что нечто думает, что оно думает, хоть железками, хоть ещё чем. Далее отвергаю солипсизм как неконструктивный

Солипсизм был просто как иллюстрация того, что вопросы нашего самосознания чисто умозрительные, субъективные и нефальсифицируемые. Дальше были просто достаточные (а не вероятные) примеры для такой позиции :) Я не утверждаю их реальность, я просто утверждаю, что мышления как объективного «феномена, которое и не требуется проверять» не существует.

AntiMat> Оно штампует только слепо, а я осознанно хочу. Чтобы было понятно в каком состоянии мозга возникает то самоощущение, в каком нет, изменение каких связей оказывает то или иное психическое состояние или же не оказывает никакого.

Уже пример простейших нейросетей (которые чистая математика и прекрасно понятны) показывает, что такой подход невозможен. У нейросетей не бывает «какие связи изменяют состояние». У больших нейросетей бывает чисто функциональное деление на отдельные подсети, но в рамках одной подсети нет частей, принимающих то или иное решение. Это не дискретная релейная логика.

Поэтому, кстати, даже самые примитивные нейросети сегодня не программируют, а обучают. И разное обучение приводит к разным результатам.

AntiMat> Вот тогда можно будет с уверенностью без философствований говорить о природе разума, его возможных формах, границе, когда имитация начинает обладать свойством оригинала — т.е. исчерпывающе теоретически разобрать тест Тьюринга.

Я на 99.9% уверен, что системы, уверенно проходящие тест Тьюринга будут созданы. И даже не в очень далёком будущем. Но я ещё более, на 99.999% уверен, что люди никогда не будут знать как работает ИР (уже не ИИ), проходящий такой тест. В смысле, не будут знать, какой компонент ИР принимает какое решение по какой причине, а не в смысле общих принципов, конечно. Как сейчас, прекрасно зная как в принципе работают нейросети и имея возможность побитово посмотреть принцип формирования решения, люди, тем не менее, не знаю, как эта нейросеть принимает решение :) Потому что в её случае уровень рассмотрения между базисным принципом работы и между внешним проявлением работы просто лишён смысла.

AntiMat> Сейчас получена полная карта нейрональных связей нематоды.

Ближе копай, ближе. Нейронные сети, генетические алгоритмы... Они намного проще, понятнее, до элементарных действий понятно, как работают, но для них невозможно дать объяснение работы на «среднем» уровне. То, чего ты хочешь. Они просто выдают результат по заложенным алгоритмам. Также работают и живые нейросети, только там низкий уровень процессов на порядки сложнее. Но принцип тот же. Поэтому карта связей нейросети нематоды не даст понятия, как она работает на среднем уровне. Можно будет проследить ход сигналов от воздействия до реакции. Но это не даст ничего о следующем, «среднем» уровне работы.

AntiMat> Эволюция же слепая дура, просто с большой форой времени и ресурсов, разум у неё получился случайно.

Да сколько угодно. Я просто пишу о том, что для точного повторения работы мозга придётся делать его точную копию. А аналог на другой элементной базе будет совсем другим решением.
   33
+
-
edit
 

AntiMat

опытный

Balancer> Поэтому карта связей нейросети нематоды не даст понятия, как она работает на среднем уровне. Можно будет проследить ход сигналов от воздействия до реакции. Но это не даст ничего о следующем, «среднем» уровне работы.

Не понял, почему, если известны состояния каждого элемента, их связи и условия реагирования? Напр., известны уровни сигнала на каждом сенсорном элементе перцептрона => известно, какие из этих элементов пропустят сигнал дальше, также известно, к каким именно анализирующим элементам, т.к. известны сенсорно-анализирующие связи, также известны пороги срабатывания каждого анализирующего элемента, то же и с реагирующими, и весовые коэффициенты на любой момент времени известны. Возможно предвычислить его реакцию на известный входной сигнал, потому его возможно эмулировать на обычном компе.

upd.
Balancer> Я просто пишу о том, что для точного повторения работы мозга придётся делать его точную копию. А аналог на другой элементной базе будет совсем другим решением.

Меня интересует насколько достоверно можно считать, что тот аналог хоть и будет другим решением с иным назову это образом мышления, но таки с похожим на человеческое самоосознание — тема "Ложной слепоты". Иные люди куска мозга лишаются и ничего, а другие заметно меняются после этого. Есть саванты, есть аутисты, т.е. уже на базе человеческого мозга бывают сильно отличные от средней нормы варианты, и не все ещё тот тест пройдут.
   48.048.0
Это сообщение редактировалось 15.09.2016 в 22:38
+
-
edit
 

Balancer

администратор
★★★★★
AntiMat> Не понял, почему, если известны состояния каждого элемента, их связи и условия реагирования?

В том-то и проблема, что нейросеть мозга — это не примитивный набор сумматоров. Это сложная биоэлектрохимическая машина. А принимаемые ею решения часто носят бифуркационные компоненты. Поэтому малейшее изменение на уровне химического состава или температуры может в итоге привести к иному решению. Эмулировать такое в точности на уровне механизма просто невозможно — только создать такое же.

AntiMat> Напр., известны уровни сигнала на каждом сенсорном элементе перцептрона

Каждый нейрон реагирует не только на электрический сигнал на своих синапсах. Он реагирует на химические агенты как крови, так и других нейронов. При чём там много способов дополнительного обмена, от прямой химической широковещательной передачи сигналов (по памяти — что-то там с закисью азота) до косвенной, от остального организма. Типа, одни части мозга заставляют надпочечники выбросить адреналин, другие под его воздействием меняют работу. Попробуй заставить перцептрон принимать другие решений под воздействием алкоголя :) Наконец, связи в мозгу постоянно меняются. И сама функция нейронов — тоже меняется, как под влиянием внешних факторов, так и по предыдущему внутреннему состоянию. Скажем, нейрон часто переключающийся быстро утомляется и перестаёт реагировать. Но объём и результат проделанной работы зависит, например, от того, как организм перед этим питался.

Эмулировать всё это просто нереально.

AntiMat> Меня интересует насколько достоверно можно считать, что тот аналог хоть и будет другим решением с иным назову это образом мышления, но таки с похожим на человеческое самоосознание — тема "Ложной слепоты".

Вот тут и нельзя получить достоверный ответ. Будет у новой нейросети самоосознание или будет лишь имитация оного :) Например, многие считают, что отсутствие квантовой неопределённости сделает такой мозг детерминированным. А, значит, лишённым свободы воли. А, значит — уже не «человеческим». Хотя кто-то считает, что и человеческий мозг детерминирован и свободы воли нет и у нас. Так что снова вылезает философия. И снова можно сослаться на Лукьяненко :)

— Сергей, это будет ложным уходом… Старая философская проблема о свободе воли решена. Мы несвободны. Нас несет основным потоком истории — и все, что нам дано, это барахтаться более или менее энергично. Даже в настоящем, которое для вас является будущим, вы обречены делать то, что потребует от вас ход истории. Свободы воли нет.

— Свобода воли, Маэстро, это отсутствие человека, знающего твои поступки наперед. Вот и все.
 


AntiMat> Иные люди куска мозга лишаются и ничего, а другие заметно меняются после этого.

Любая замена мозга приводит к изменению личности. Просто не все эти изменения видны снаружи. И ты никогда не сможешь сказать, насколько поменялось самосознание личности с изменённым мозгом.

В какой-то степени, кстати, это позволяет некоторым в будущем рассчитывать на электронное бессмертие :) Логика такая — эмуляция мозга целиком невозможна. Перенос его в электронную форму как есть — тоже невозможен. Но замена малой части мозга на электронный аналог не приводит к заметному изменению сущности личности. Значит, если менять части мозга на электронные компоненты поэтапно, давая адаптироваться, то пусть мы и получим в итоге другую личность, изменение будет эволюционным, а не революционным. Наша личность итак постоянно меняется и ты — совсем не та же личность, что была, скажем, 10 лет назад... При чём эти электронные компоненты могут быть вообще не автономными, а только терминалом к программному элементу Сети. А когда мозг по мере замены целиком станет электронным — тогда ничто не мешает его перенести в электронную форму. Или она итак окажется к тому времени целиком электронной, если замена будет «терминальной». Т.е. по факту работать будет программа в сети, управляя внешним телом-манипулятором :) И в таком виде программа-личность уже может быть бессмертной.

Но мы не сможем понять, является эта программа разумной или будет просто «неотличимой имитацией» :)
   33
RU Alexandrc #16.09.2016 07:44
+
-
edit
 

Alexandrc

аксакал

По поводу понятности искусственных нейросетей. С этим тоже проблемы:

Действительно ли искусственный интеллект непостижим?

Дмитрий Малютов мало что может рассказать о своём творении. Он работает в исследовательском отделе IBM, и часть своего времени посвящает созданию систем... // geektimes.ru
 
   
RU Alexandrc #16.09.2016 08:51
+
-
edit
 

Alexandrc

аксакал

"Домик" под проект Маск а и иже с ним:
 
   
RU Balancer #16.09.2016 08:55  @Alexandrc#16.09.2016 07:44
+
-
edit
 

Balancer

администратор
★★★★★
Alexandrc> По поводу понятности искусственных нейросетей. С этим тоже проблемы:

Вот. Об этом я тоже пишу :) Даже работу простейших нейросистем на «среднем» уровне объяснить нельзя. Они просто работают по выведенным в процессе обучения модификациям. Вычленить же среди них какие-то алгоритмы работы среднего уровня столь же невозможно, как нельзя измерить расстояние между городами с точностью до сантиметра.
   33
RU Alexandrc #16.09.2016 14:34
+
-
edit
 

Alexandrc

аксакал

"Неожиданно" ютуб подсунул видео :D
   53.0.2785.8953.0.2785.89
MD Wyvern-2 #16.09.2016 18:04  @Alexandrc#16.09.2016 14:34
+
-
edit
 
ZA Alexandrc #21.09.2016 09:38
+
-
edit
 

Alexandrc

аксакал

Очередная часть

Логика сознания. Часть 6. Кора мозга как пространство вычисления смыслов

Что такое информация, как найти скрытый в ней смысл, что вообще есть смысл? В большинстве толкований информацию сопоставляют с сообщением или с данными,... // m.habrahabr.ru
 

Интересен вывод о множестве колонок при запоминании:
Кроме того, можно допустить, что полный экземпляр памяти не обязан укладываться в одну миниколонку, а может быть распределен в пространстве нескольких соседних миниколонок. Так как диаметр дендритного дерева составляет порядка 300 мкм, то потенциально такое пространство доступно каждой миниколонке для работы с памятью.
 

Это перекликается с результатами "забав" с крысами:
Ученые решили, что увидели своими глазами, как формируются и работают своеобразные блоки памяти — группы нейронов, которые запоминают какие-нибудь события. Представления о том, что воспоминания хранят такие скопления нейронов, существовали в течение десятилетий, но только сейчас удалось увидеть, как эта система работает.
 

Из Нейроны вместе запоминают пройденное расстояние



Теперь про проблемы обучения

Ограничения формального обучения, или Почему роботы не умеют танцевать

80-е годы в лаборатории информатики и искусственного интеллекта MIT казались сторонним наблюдателям чем-то вроде золотого века, но изнутри Дэвид Чапман мог... // m.geektimes.ru
 
   
Это сообщение редактировалось 21.09.2016 в 16:03
ZA Alexandrc #26.09.2016 08:27
+
-
edit
 

Alexandrc

аксакал

Логика сознания. Часть 7. Самоорганизация пространства контекстов

Ранее мы говорили о том, что любая информация имеет как внешнюю форму так и внутренний смысл. Внешняя форма — это то, что именно мы, например, увидели или... // m.habrahabr.ru
 
Наш мозг возник в результате эволюции. Его общая архитектура, принципы работы, система проекций, структура зон коры — все это создано естественным отбором и заложено в геном. Но далеко не все можно и имееет смысл передавать через геном. Некоторые знания должны приобретаться живыми организмами самостоятельно уже после их рождения. Идеальная адаптация к окружающей среде не в том, чтобы наследственно хранить правила на все случаи жизни, а в умении обучаться и самим находить оптимальные решения в любых новых обстоятельствах.
...
В реальных случаях, например в нашей жизни, информация не появляется одномоментно сразу вся. Она накапливается постепенно по мере приобретения опыта. При этом, новые знания сразу включаются в информационный оборот вместе со старыми. Можно предположить, что наш мозг использует двухэтапную обработку новой информации. На первом этапе новый опыт запоминается и может сразу быть использован. На втором этапе происходит соотнесение нового опыта со старым и более сложная совместная обработка этого обработка.
Можно предположить, что первый этап происходит во время бодорствования и не мешает остальным информационным процессам. Второй же этап, похоже требует «остановки» основной активности и перехода мозга в специальный режим. Похоже, что таким специальным режимом и является сон.
...
На практике при сближении смыслов может произойти так называемая «перегрузка мозга», когда человек впадает в трансовое состояние, теряет собственную мысль и перестает себя контролировать. На таком эффекте основан так называемый «цыганский гипноз».

Если несколько человек начнут одновременно говорить что-то свое, скорее всего, на вас это не произведет особого впечатления. Вероятнее всего, вы сконцентрируетесь на ком-то одном и будете следить за его мыслью. Попытка услышать одновременно всех, навряд ли, что-то даст. Вы услышите обрывки фраз и скорее всего бросите это занятие.

Но когда вас окружает толпа цыган, ситуация меняется. Вы настораживаетесь и пытаетесь контролировать ситуацию. Вы пытаетесь понять все, что вам говорят. Как правило, все цыгане «бьют» в одну тему. «Центровая» цыганка начинает говорить о вашем будущем, пророчить, предупреждать или угрожать. Остальные вторят ей и говорят, что-то созвучное. В этот момент у большинства людей наступает транс. Очнувшись вне окружения цыган человек обнаруживает пропажу кошелька, часов и уверенности в собственной нормальности.
...
Многие, кто хорошо разбирается в нейронных сетях, но далеки от биологии полагают, что искусственные нейронные сети во многом подобны мозгу. Это представление о подобии основывается на истории возникновения искусственных нейронных сетей и, соответственно, на тех представлениях о нейронах, которые существовали когда-то давно. Те исследователи, кто лучше представляет биологию мозга предпочитают обтекаемо говорить, что многие идеи искусственных нейронных сетей навеяны механизмами работы реального мозга. Однако, стоит отдавать себе отчет о степени этого «навеивания».
 
   
RU Alexandrc #30.09.2016 13:09
+
-
edit
 

Alexandrc

аксакал

Google, Facebook and other tech titans form 'Partnership on AI'

Google, Facebook, Microsoft, IBM and Amazon want people to know that AI research isn't all about making killer robots. // www.engadget.com
 

Или в "переводе" 4pda 4PDA .:. Всё в порядке, но...
Сразу пять технических гигантов сформировали альянс, с помощью которого они рассчитывают донести до публики пользу искусственного интеллекта. В начале сентября Google, Facebook, Microsoft, IBM и Amazon провели встречу, на которой обсудили некий связанный с ИИ проект. Теперь же о замыслах компаний стало известно официально: союз получил название "Партнёрство по искусственному интеллекту во благо людей и общества" (Partnership on Artificial Intelligence to Benefit People and Society). Объединение будет поддерживать исследования, а также обеспечивать рекомендациями относительно этики, открытости и личного пространства при изучении искусственного интеллекта.

Мы считаем, что технологии искусственного интеллекта имеют огромный потенциал для улучшения жизни людей и могут помочь человечеству разобраться с глобальными проблемами, связанными с климатическими изменениями, едой, неравенством, здоровьем и образованием.

У всех пяти компаний есть действующие проекты, связанные с ИИ. У IBM это Watson, а у Google - DeepMind. Проект Amazon под названием Alexa - это голосовой помощник, а аналогичная технология Microsoft называется Cortana. Наконец, Facebook во многих своих областях так или иначе использует ИИ, в том числе при распознавании лиц и формировании ленты новостей.

Несмотря на впечатляющий подбор участников, очевидно, что одного ключевого игрока в партнёрстве не оказалось. По поводу Apple высказался участник объединения из компании Microsoft, Эрик Хорвиц. Он заявил, что в Купертино с энтузиазмом отнеслись к этой идее, и что он лично очень надеется увидеть Apple в составе партнёрства.
 
   53.0.2785.11653.0.2785.116
1 2 3 4 5

в начало страницы | новое
 
Поиск
Поддержка
Поддержи форум!
ЯндексЯндекс. ДеньгиХочу такую же кнопку
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru