будущее есть!
  • После
  • Конспект
  • Документ недели
  • Бутовский полигон
  • Колонки
  • Pro Science
  • Все рубрики
    После Конспект Документ недели Бутовский полигон Колонки Pro Science Публичные лекции Медленное чтение Кино Афиша
После Конспект Документ недели Бутовский полигон Колонки Pro Science Публичные лекции Медленное чтение Кино Афиша

Конспекты Полит.ру

Смотреть все
Алексей Макаркин — о выборах 1996 года
Апрель 26, 2024
Николай Эппле — о речи Пашиняна по случаю годовщины геноцида армян
Апрель 26, 2024
«Демография упала» — о демографической политике в России
Апрель 26, 2024
Артем Соколов — о технологическом будущем в военных действиях
Апрель 26, 2024
Анатолий Несмиян — о технологическом будущем в военных действиях
Апрель 26, 2024

После

Смотреть все
«После» для майских
Май 7, 2024

Публичные лекции

Смотреть все
Всеволод Емелин в «Клубе»: мои первые книжки
Апрель 29, 2024
Вернуться к публикациям
Наука 2.0
Июль 17, 2025
Наука

Искусственный интеллект

Искусственный интеллект
burtsev
Михаил Бурцев. Дмитрий Ицкович и Анатолий Кузичев в передаче цикла "Наука 2.0". Кадр: Россия 24

 Мыпубликуем стенограмму передачи «Наука 2.0» – совместного проектаинформационно-аналитического канала «Полит.ру» и радиостанции «Вести FM». Гостьпередачи – кандидат физико-математических наук, научный сотрудник Институтаприкладной математики им. М.В.Келдыша РАН, старший научный сотрудник НИИНормальной физиологии им П.К. Анохина РАМН, руководитель Лабораториинейроинтеллекта и нейроморфных систем НБИК-Центра (РНЦ «Курчатовский институт»)Михаил Бурцев. Услышать нас можно каждую субботу после 23:00 на волне97,6 FM.

Анатолий Кузичев: Итак, в эфире совместныйпроект радиостанции «Вести FM»и портала «Полит.ру». Председатель редакционного совета «Полит.ру» Дмитрий Ицкович,Борис Долин и я, Анатолий Кузичев, от радиостанции «Вести FM». Наш гость сегодня – Михаил Бурцев, кандидатфизико-математических наук, сотрудник Института прикладной математики имениКелдыша РАН, старший научный сотрудник НИИ нормальной физиологии имени АнохинаРАМН.

Борис Долгин: Еще есть должность вКурчатовском институте, да?

Михаил Бурцев: Да,руководитель лаборатории нейроинтеллекта и нейроморфных системКурчатовского НБИК Центра

Дмитрий Ицкович: Молодой симпатичнейчеловек и так много успевает

А.К.: Подозрительно молодой, но мы проверили документы, и это действительноМихаил Бурцев. Сегодня мы будем говорить об актуальных проблемах моделированиядеятельности мозга. Моделирование деятельности - это и есть, насколько я понимаю,искусственный интеллект.

Б.Д.: И да, и нет.

А.К.: Впрочем, можно, наверное, создатьискусственный интеллект без моделирования деятельности человеческого мозга, покаким-то другим алгоритмам. Или нет?

М.Б.: Я думаю, что такое возможно. Другоедело, что большинство исследователей придерживается той точки зрения, что прощеподсмотреть, что происходит в естественном интеллекте, и уже используя этипринципы понять, как строить искусственный.

Б.Д.: А проще ли? Когда мы говорили обэволюции, Кирилл Еськов высказывался о том, насколько неэффективно иногда выбранноерешение, насколько много отбрасывается лишнего материала. Понятно, что как и влюбой другой естественной системе. Может быть создать сразу более оптимальное инженерноерешение? Более строго, более четко

М.Б.: Конечно, если такое возможно,такое нужно делать. Другое дело, в той ситуации, когда мы очень смутно себе представляем,как и что нам делать. Проще понять, как что сделано, потом понять в чемпроблема реальных биологических систем, почему они неэффективны, и это устранить.

Д.И.: Ой, как все просто. Взятьнеэффективные биологические системы и эту неэффективность устранить.

М.Б.: Конечно, сначала надо понять,как они работают. Тогда, может быть, нам удастся понять, в чем они неэффективны.

А.К.: И на каком мы этапе в этом смысле?

М.Б.: Мы же не знаем, почему они неэффективны. Мы находимся на очень промежуточном этапе. Потому что, с однойстороны, мы очень много понимаем о каких-то молекулярных процессах, которыепротекают в живых системах - бурный расцвет молекулярной биологии. Мы видим,как расшифровываются и рисуются огромные схемы молекулярных путей внутри клеток,как различные биологические молекулы друг с другом взаимодействуют, к чему этоприводит с точки зрения изменения поведения клетки. С другой стороны, у насесть замечательный пример. Это почвенная нематода – такие прозрачные червяки,длиной всего 1 миллиметр.Можно рыбу ловить, но крючок маленький понадобится.

А.К.: Да и рыба не большая получится,прямо скажем.

М.Б.: У них буквально несколько сотенклеток всего и несколько сотен нейронов. Про все эти клетки известно, как ониработают, как они друг с другом связаны. Они каждый раз примерно одинаковосвязаны, более того, прослежено развитие этой нематоды, как она из одной клеткиделится, все стадии. Под микроскопом кино нарисовано, и уже лет 10 существуетпроект, чтобы смоделировать, как нематода учится, обучается…

Д.И.: …и не получается.

М.Б.: Нет, не получается.

Б.Д.: Но ведь есть направлениеискусственного интеллекта, которое вполне успешно развивается, не пытаясь непосредственномоделировать то, как человек работает – распознавание образов.

А.К.: Нет, тогда нужно говорить о том,что такое интеллект.

М.Б.: И это, наверное, самая большаяпроблема. Очевидно, что есть некоторые задачи, которые от человека, когда он ихв первый раз решал, требовали интеллекта. Поэтому сейчас мы эти задачи называеминтеллектуальными. Но это задачи, которые в природе больше никем не решаются, имы их решили не так, как думает человек, а так, как нам было удобно. При помощинекоторого формального языка, математики и, конечно, решение этих задач сегодняшироко развито, используется во многих местах и очень сильно помогает.

А.К.: О каких задачах речь?

М.Б.: О том же самом распознаванииобразов, поиске по картинкам.

Д.И.: Стоп-стоп-стоп! Человек решалзадачу распознавания образов как человек, как биологическое существо, отличноеот всех других биологических особей?

М.Б.: Если мы строго будем с этимразбираться, то можно сказать, что человек решает задачу распознавания образовкак биологическое существо, как организм. В течение жизни распознавая их каксубъект, но с другой стороны стоит задача научить компьютер разбивать картинки,например на классы…

Б.Д.: Или звуковые образы, потому чтообразы могут быть разные.

М.Б.: Это могут бытьпаттерны данных, какие-нибудь биржевые котировки или что угодно. Разбиватькаким-то осмысленным способом, то есть выделять те объекты, которые похожи другна друга. Это распознавание образов при помощи математики, при помощи каких-тостатистических методов.

Б.Д.: И результатами этих исследованиймногие из нас на практике пользуются: от звукового ввода команд через распознаваниеобразов при сканировании. Это вполне универсальная вещь, которая вошла в быт

М.Б.: Да, это тепримеры, которые мы сегодня не замечаем. Мы сканируем, распознаем текст илиговорим телефону, он запоминает, как ему сказали, и мы можем набирать номера,просто произнося их.

Д.И.: Я пытаюсь понять. Наверняка у васвисят на стене, как во всех офисах, всякие смешные штуки: «Если начальник неправ, читай пункт первый», а у вас, наверное, висит на столом: «Интеллект –это..». Я так и не понял, кроме распознавания образов что это еще такое?

М.Б.: К сожалению, невисит.

Д.И.: Не висит? Может, сформулируем иповесим?

М.Б.: Это оченьсложная проблема. Как вы знаете, это глубокий философский вопрос: что такоеинтеллект.

Д.И.: Если вы его пытаетесьвоспроизвести, то примерно представляете.

М.Б.: Да, у нас есть некотороетакое неформальное представление – это способность решать задачи. То есть есликакое-то существо или какая-то система перенесет задачи, которые она раньше нерешала.

Д.И.: Но эволюция тоже решает задачи. Эволюция- это интеллект?

М.Б.: Здесь нужноограничить, сказать, что эволюция решает задачи на популяционном уровне, аинтеллект - это решение задач на индивидуальном уровне.

Б.Д.: Кроме того, то, что эволюциярешает задачи, - это наше представление как субъекта, наблюдающего за.

Д.И.:. Любых задач?

М.Б.: Любых задач, еслисмог решить.

Б.Д.: Наверное, любых задач, сводящихсяк простым алгоритмам. Потому что решить задачу 5+7 научились делать ещеарифмометры

Д.И.: Это интеллектуальная задача

М.Б.: Тут нужносформулировать и понять, что такое задача. Это не задача, в смысле школьногоучебника, где мне дали правило и заставили по этим правилам делать, дедуктивно выводитьответ.

Д.И.: Волк хочет есть – это задачанайти еду.

М.Б.: Да, у него естькакой-то набор правил, он их использует. У волка есть набор правил, как искатьеду, он пошел искать, увидел следы, пришел. Н решить он ее не смог, интеллектуальностьначинается в тот момент, когда те правила, которые нам дали, не позволили нам найтиответ. В примере с правилом 5+5 первоклассник, которого посадили делать 5+5 накомпьютере, вроде использует те правила, которые есть, в тесте набирает 5+5=то-то, а тест ему говорит «неправильно». И он должен понять, то ли задача быласформулирована каким-то образом и он должен свои навыки использовать по-другому,то ли компьютер сломался. И вот здесь начинается обучение.

Д.И.: Сидит первоклассник и говорит: «Толи сошел с ума, то ли еще что».

А.К.: Получается сытый волк, все-такидобравшийся до пищи, - это и есть интеллектуальный волк.

Б.Д.: Он решил задачу.

М.Б.: Если он при этомон воспользовался чем-то новым, чем раньше.

Д.И.: Наверняка воспользовался. А еслион повторил старый алгоритм, это все равно было интеллектуальным алгоритмом?

М.Б.: Самогопроявление обучения интеллектуальности в этот момент не было, то есть он умный,да, но мы не знаем, может, от рождения таким был.

А.К.: То есть это еще не интеллект.

М.Б.: В моем пониманииинтеллект это способность решать задачи.

Б.Д.: А о повторяющем фразу мы ничегоне можем сказать о его интеллекте.

М.Б.: Да, но если он этуфразу говорит так, что ему от этого какая-то оказывается польза, и он сам понимает,как эту фразу сказать, здесь интеллект присутствует.

Б.Д.: Или комбинирует их так, чтобыподходить к некоторой ситуации.

А.К.: Если уж мы взяли волка в качествепримера. Волк очень часто решает задачи, которые до этого в жизни перед ним нестояли, и он вынужден ориентироваться очень быстро, мгновенно приниматьрешения, порой совершенно парадоксальные.

Б.Д.: О проблемах принятия решенияхотелось бы поговорить подробнее.

А.К.: продолжаем разговор. Сегодня унас в гостях Михаил Бурцев, кандидат физико-математических наук, научный сотрудникИнститута прикладной математики имени Келдыша и старший научный сотрудник НИИ нормальнойфизиологии имени Анохина РАМН.

Б.Д.: В свое время в теории принятиярешений выделили два способа: алгоритмы и эвристики. В какой степени можноговорить о том, что интеллект начинается там, где речь идет об эвристиках инельзя там, где речь идет об алгоритмах? Алгоритм предполагает прямоеследование по правилам: однозначное, строгое, последовательное. Эвристикапредполагает вероятностный процесс выбора стратегии, который нельзя свести кчеткой последовательности правил.

М.Б.: Мне кажется,должно быть сочетание этих двух подходов в том смысле, что пока ничего немешает, то нам не нужны никакие вероятности, нам нужно делать, как мы знаем,здесь мы используем алгоритмы. Но в тот момент, когда у нас вдруг случилосьстрашное, мы должны использовать эвристику, чтобы понять, какой же нам новыйспособ, новый алгоритм выбрать, скомбинировать и попробовать. Здесь намочевидно нужен наш опыт, наши представления о том, какие наши действия раньше былиуспешными в данной ситуации, а какие не были успешными.

Б.Д.: Да, конечно. Какие направленияискусственного интеллекта оказались в тупике к настоящему моменту, а какиенаоборот, выглядят перспективными, живыми, развивающимися?

М.Б.: Это сложныйвопрос, потому что никто ведь не знает, откуда что-то может выстрелить. Ноистория развития примерно такая: есть две таких заматеревших области, точнеесказать, одна огромная: это символьный искусственный интеллект и все что с нимсвязано. И когнитивные системы, и моделирование рассуждения психики человека итак далее. Есть техническая область внутри него - это алгоритм машинногообучения, к которому сводится алгоритм распознавания образов. Другая частьэтого направления - искусственно-нейронные сети. Все они существуют достаточнодавно, но более-менее вышли на какое-то плато с точки зрения роста ихэффективности. Лет 10-15 назад появилось новое течение, которое стало пытатьсясмоделировать поведение животных, которое получило название либо поведенческойроботики, либо анимат. Это сочетание двух слов (animal и automat) и здесь очень широкостали применяться эволюционные методы. Целью было не сразу понять человека, адавайте сначала разберемся с волком или с мышью.

Д.И.: Или с этим червячком.

М.Б.: Или с этимчервячком – нематодой. Можно сказать, что был всплеск интереса. Сегодня этоболее-менее устаканилось, и были получены интересные результаты. Можно сказать,что появилось целое направление в искусственном интеллекте, но тоже более-менеевышло на какую-то полочку.

А.К.: Подождите. Еще раз. Вы сказали:здоровенная, заматеревшая область нейронов…

М.Б.: Да, это то, чтоклассический искусственный интеллект.

А.К.: Что еще? Нейронные сети?

М.Б.: Нейронные сети итак называемый аниматный подход и поведенческая роботика.

Б.Д.: А вы сами ближе к какому подходу?

М.Б.: Я ближе каниматной и поведенческой роботике, потому что есть еще примыкающие к этомуобласти, под названием искусственная жизнь. Там исследуют эволюцию в популяцияхкаких-то особей, и эти особи еще не такие умные, как в поведенческой роботике,потому что мы не стараемся засунуть в них очень много навыков, Зато ониэволюционируют точно так же, как это часто бывает в эволюционной работе.

А.К.: Эти особи из чего сделаны? Этопрограммы?

М.Б.: Да, обычно этопрограммы, но, например, наш коллега из Германии занимается тем, что делаетэволюционные алгоритмы на маленьких роботах. У них есть популяция роботов,состоящая из нескольких десятков роботов размером буквально сантиметр на сантиметр,и их программы друг с другом общаются, у них может происходить эволюция. Они размножаются,но размножаются не физически, а есть алгоритм их поведения, и они пересылают изголовы одного робота в голову другого робота программу, то есть акт размножениязаключается в том, что мозг одного робота убивается и заменяется мозгом другогоробота, который был более успешен. И они показали, что эти роботы могут решатьпримитивные задачи при помощи такого алгоритма: типа найти путь в лабиринте,который ведет из начального отсека в отсек, где находится виртуальный сыр,который эти роботы должны съесть.

Д.И.: Какая-то путаница. Роботы,охотящиеся за сыром.

Б.Д.: Виртуально.

Д.И.: Виртуально. Чистый «Рембо»: забегаеттолпа роботов в лабиринт и все дохнут, потихонечку передавая мозг друг другу.

Б.Д.: А не является ли здесьэволюционный путь опасно долгим, не вынуждены ли мы будем тогда ждать примерностолько, сколько эволюция ждала до нас?

М.Б.: Это правильный,хороший вопрос. Мы надеемся, что можно моделировать не всю эволюцию, а какие-тоключевые места, которые нам хотелось бы. Сосредоточивать эволюцию в этих местахи таким образом сгладить, иначе это было бы невозможно.

А.К.: А как выглядит ваша работа?Приходит Михаил Бурцев на работу и….

Д.И.: Включает искусственный интеллект…

М.Б.: Включаеткомпьютер и начинает программировать.

Д.И.: Читать новости.

М.Б.: Новости читает,да. Какие новые аниматы появились и так далее. Начинает программировать, писатьпрограмму, запускает эволюцию. На самом деле начинает не с того, что пишетпрограммы, а с того, что он включает компьютер, подсоединяется ксуперкомпьютеру и смотрит, что у него там насчиталось. Загружает данныеэволюции и смотрит: так, кто у нас там наэволюционировал сегодня?

Б.Д.: Суперкомпьютер - это, наверное, вКурчатнике.

М.Б.: Да, в Курчатникеэто может быть.

А.К.: Или в университете?

М.Б.: Суперкомпьютер таместь, но мы им не пользуемся.

А.К.: Это интересно. Приходит бог,включает компьютер и начинает за теми, кого он породил, наблюдать.

М.Б.: Да, прямо так. Ихочень любишь, заботишься о них.

Д.И.: Вы перечислили три направления, некоторыеиз которых уже стагнируют, а какие-то бурно развиваются. Чем они отличаютсядруг от друга, почему не могут быть объединены в одну общую задачу, в однуобщую систему?

М.Б.: Они различаютсяследующим. Классический искусственный интеллект пытается рассматривать высокиеуровни организации каких-нибудь интеллектуальных процессов. То есть это учеловека могут быть рассуждения или приключения каких-нибудь адаптивныхалгоритмов, программ и так далее. Нейронные сети пытаются все делать на уровне нейронов,они пытаются из нейронов, как элементов, которые лежат в основеинтеллектуальности животных, собрать какую-то систему, которая будет обладатьинтеллектуальным поведением. Аниматный подход комбинирует, пытается совместитьнейроуровень с когнитивным, то есть организовать из этих нейрончиков какие-то структуры,которые будут решать поведенческие задачи и возможно еще все этопроэволюционировать. Это основные различия. Кстати, я подумал, что перспективнымнаправлением, которое может быть, которое только что зародилось и которым мы занимаемся,может стать попытка включения живых нейронов в аниматор. Есть такие гибридныесистемы, где у нас есть робот. Это может быть виртуальный робот, а может бытьреальный робот в каком-то лабиринте. Мы берем нейронную сеть, у нас немодельная нейронная сеть управляет этим аниматом, а реальный нейрон.

Д.И.: Как это? Маленький червячок сидитв голове роботика?

М.Б.: Нет, все гораздоболее масштабно. У нас есть некоторая чашка, в которую мы высаживаем культурунейронов. Там клетки растут.

А.К.: А откуда вы изначально беретенейроны?

М.Б.: Из мозга мышей.Мы высаживаем эти нейрончики, они там растут, у них создаются все условия,среда, чтобы они думали, что они внутри мозга. И мы можем этим нейрончикампередавать какую-то информацию из окружающей среды. А с другой сторонырегистрировать их активность, чтобы интерпретировать ее как некоторое действие,которое мозг совершает во внешней среде. Взаимодействие со средой происходит черезтело нашего робота, который с сенсоров получает информацию со среды, а на егоактуатор (например, колесики) передается действие из этих нейрончиков. Сложнаязадача заключается в том, что мы должны заставить эту нейронную сеть обучитьсяи решать какую-то задачу при помощи этого робота в какой-то среде, про которуюона ничего не знает.

Д.И.: А задача все тоже самая – найтисыр? Пока я только одно слышал.

М.Б.: Да, провереннаязадача.

А.К.: Если у робота мозг мыши, то сырсовершенно оправдан.

Б.Д.: Другими словами, создается такойвнешний, вынесенный мозг.

М.Б.: Он можетнаходиться в другом помещении, а может и рядом находиться. Мы, конечно, хотелибы его засунуть в робота, но здесь проблема с поддержанием условий. Такие опытытоже делаются. Например, берутся улитки, сажаются на роботов, в улитку сажаютсяэлектроды.

Б.Д.: Мы помним фантастическиепроизведения, где примерно такие мотивы обыгрываются.

А.К.: Вы сейчас про фантастическиепроизведения рассказываете?

Б.Д.: Нет.

А.К.: Или где-то у вас физически естьулитки, в них воткнуты электроды. И эта улитка сидит и думает, почему мнехочется сыра, господи, я же улитка.

М.Б.: Морковки дайте.

А.К.: Напомню, что мы беседуем сМихаилом Бурцевым, обсуждаем актуальные проблемы моделирования деятельностимозга и вообще перспективы создания искусственного интеллекта.

Собственновопрос, а как вы поймете, что вы его достигли, что вы его сделали, чтополучили? Эврика, вот он – искусственный интеллект!

Б.Д.: Это тот же тест Тьюринга?

М.Б.: Для нас это тестТьюринга на животных. Как вы поняли, проблема определения интеллекта оченьсложна и люди уже лет 60-70 люди ломают голову над тем, как же его определить. Однаиз самых ранних попыток, которая оказалась одной из наиболее удачных, какопределить искусственный интеллект, принадлежит Алану Тьюрингу, одному изизобретателей современных компьютеров. Он предложил операциональное определениеискусственного интеллекта. Есть такой тест Тьюринга, что если мы посадим вкомнату человека, и этот человек по телетайпу будет общаться с какими-то двумяудаленными местами… Сейчас это может быть чат, в котором человек общается, и наодной стороне от человека будет находиться робот, а на другой стороне другойчеловек. Кто с какой стороны – он не знает. Этот человек может задавать любыевопросы, которые хочет, и в тот момент, когда никто не сможет отличить машинуот человека на другом конце провода, мы сможем сказать, что машина обладаетискусственным интеллектом.

А.К.: У человека, который будетбеседовать с машиной, не зная, машина это или человек, будет задача выявить? Онбудет понимать, что он проходит тест Тьюринга? Вернее не он, а машина.

Б.Д.: Это неважно.

А.К.: Нет, это важно.

М.Б.: С одной стороны,это неважно, но с другой стороны знание этого не должно никаким образом влиятьна тест. Даже если самый злобный человек, пытающийся поставить самые каверзныевопросы, не сможет отличить, тогда тест Тьюринга пройден.

А.К.: Такие эксперименты уже были?

М.Б.: Да, последниенесколько лет даже ежегодно проводятся соревнования, где люди свои программы выставляют,а эксперты сидят и мучают эти программы.

Д.И.: Так эксперты же знают, что онипрограммы мучают.

А.К.: Они делают вид, что они не знают.

Д.И.: Они делают вид, что не знают, какэтот тест сделать.

А.К.: Удивительная область, правда,очень забавно.

М.Б.: Под «они мучают»,я имею в виду, что они сравнивают. Я точных правил не знаю.

Б.Д.: Сравнивают с живыми людьми.

Д.И.: А как же они с живыми людьмисравнивают? Люди же тоже разные, одни поумнее, другие поглупее, не понятно както получается. Я эксперт, меня сажают в темную комнату, дают мне, например, азбукуМорзе. Я могу только SOSотбивать, с той стороны мне какие-то сигналы идут, и я должен понимать, сигналымне дает живой человек или машина.

Б.Д.: Нет, речь, конечно, идет о комфортныхусловиях коммуникации.

Д.И.: Хорошо, комфортные. Я смотрю,передо мной сидит машина и угадай, машина это или человек. Нет, я все-таки непонимаю.

А.К.: Странноватая история.

Б.Д.: Нет, все понятно.

Д.И.: Ничего не понятно. Представьсебе, я пытаюсь проверить с той стороны человека, который делает вид, что онмашина и говорит: « Я машина, я машина».

- Ты точномашина?

- Я машина.

- Ты точномашина?

-Я машина.

М.Б.: Это всенормально, это вписывается в текст.

Д.И.: Ну и что? Получается, что человекне прошел тест или что?

А.К.: Значит, он не искусственныйинтеллект. Не прошел тест.

А.К.: С другой стороны, смотрите, я сижув своей комнате, у меня компьютер, и я говорю:

- Кто былчемпионом страны по футболу в 1984 году?

И он черезпаузу отвечает:

- Павел ФедоровичСадырин - самый лучший тренер в мире.

И я понимаю,что он помнит, что «Зенит», и он помнит кричалочку, которую тогда придумалиболельщики, и я понимаю, что он человек, да еще какой.

Б.Д.: Из этого ничего следовать небудет.

Д.И.: Почему? Будет следовать.

Б.Д.: Должен быть гораздо более сложноустроенный диалог, который не будет требовать исключительно только знаний.

М.Б.: Я думаю, тамлюди тренированные.

А.К.: Именно об этом я спрашиваю. То естьон должен сразу поставить своего мнимого собеседника, то ли человека, то ликомпьютер в такие условия, чтобы проверить его. Поэтому принципиально важныймомент, что ты должен его именно тестировать, а не просто беседовать.

М.Б.: Я, к сожалению,подробно не слежу за этими соревнованиями. Я знаю, что пока еще никому не удалосьнаписать такую программу и если почитать, наверняка у них есть какие-токаверзные вопросы, которые всегда работают.

Д.И.: Так я и говорю, ты должен еготестировать, а не просто беседовать. Тестировать осмысленно, жестко инапряженно.

М.Б.: Один вариантможет быть – юмор. Понимает он юмор или нет, потому что понимание юмора оченьзавязано на контекст.

Б.Д.: На самом деле, с этим тестом времяот времени сталкиваются люди, когда звонят кому-то, а на той сторонеавтоответчик со специально записанными паузами. Автоответчик, который должен сымитироватьсвоего хозяина и разобраться, действительно ли  это хозяин отвечает или автоответчик такзаписан, - это тоже своего рода тест Тьюринга.

М.Б.: Да.

Б.Д.: А как у нас с моделированием вдругом смысле: не с моделированием как созданием аналога, а с моделированиемкак созданием математической модели? В какой степени можно сказать, что мыприближаемся к пониманию того, как  устроено принятие решений человеком? Не всмысле создания, а в смысле понимания или прогнозирования, например?

М.Б.: Я не являюсьспециалистом в области принятия решений человеком. Но судя по тому, что я знаюи слышал из литературы, связанное, например, с рассмотрением принятия решенийбольшими коллективами людей, видна была эволюция. Сначала всех людей-игроковрассматривали как рациональных агентов, которые принимают только рациональныерешения, а последние лет десять фаза сдвинулась в сторону того, что у каждогоиз этих игроков…

Б.Д.: …есть отклонения отрациональности.

М.Б.: И самое важноетеперь, если эти отклонения от рациональности существуют, то они не носятслучайного характера, они зависят от конкретной ситуации, от конкретной группылюдей, которая в этой ситуации принимает решения. Проблема теперь перенеслась вдругую плоскость, где эти вещи, которые искажают рациональность? В чем лежатэти причины? Понятно, что здесь может быть несколько факторов, таких как культура,предыдущий опыт этого человека и так далее и тому подобное.

Д.И.: Любая индивидуализацияотклоняется от рациональности.

М.Б.: Да, то есть онарациональна внутри себя, но может быть не рациональной с точки зрения какого-товнешнего наблюдателя.

Д.И.: То есть у женщины одни мотивы, умужчины – другие.

М.Б.: Очень много сейчас делают попытоксмоделировать кооперативное поведение, потому что оно связано с принятиемрешений.

Д.И.: Все индивидуально, насколько японимаю, потому что индивидуальное принятие решений, кажется, тоже строится потому же принципу, когда внутри индивидуума есть совокупность разных интересов,которые он внутри себя согласовывает.

М.Б.: Можно это и такрассматривать, но очевидно, что разные люди принимают разные решения и вкооперации это очень сильно проявляется. В последние годы стали проводитьсяисследования по разным культурам, кто как кооперируется, и они выявляюткакие-то просто фантастические поразительные вещи. Например, такаякооперативная игра, которую исследовал мой знакомый Бенедикт Херман, который  участвовал в работе над этим проектом. Вразных культурах исследовалась такая игра: в первом раунде три игрока, имвыдается какая-то сумма денег, они могут вложить в общий котел, инвестировать вобщее дело, например. Каждый из них выбирает, сколько он хочет инвестироватьпроизвольным образом, потом этот котел удваивается и все, что там получилось,делится на три равных части и выдается обратно. Это первый тесткооперативности. Оказывается, что разные культуры будут вносить разную долю напервоначальном этапе.

Д.И.: Самые удивительные результатыпоказали исследования среди цыганского табора – все цыгане разбежались, причему каждого были деньги оставшихся двоих. Это никак не укладывается ни в однуматематическую модель.

М.Б.: Там очень интересныерезультаты. Несколько лет назад даже у нас в новостях они очень активнообсуждались. Оказалось, что есть какая гипотеза: чтобы кооперация оказаласьстабильной, должно быть наказание. Если мы много раз вступаем повторно вкакие-то взаимодействия, то мы можем оценить поведение человека. Если напредыдущем этапе кто-то вел себя плохо, то на данном этапе мы можем его наказать.И оказалось, что в эту игру можно ввести второй раунд, когда каждый игрок послепервого раунда не видит, с кем он играет. Ему  выдается список, кто и сколько вложил, итеперь он может так вложить деньги, чтобы наказать кого-то из игроков.Например, я даю рубль для того, чтобы наказать Петю, и у Пети отнимают 10рублей. Эти правила рассказывают участникам заранее. И мы предполагаем, что вэтом случае первоначальный взнос будет выше, потому что люди будут сразу вголове моделировать ситуацию, что их могут наказать, поэтому они будуткооперироваться. Поразительный результат оказался следующим: все страныразделились на две категории. В первой категории оказались те страны, у которых,когда был введен этот механизм наказания, люди наказывали тех, кто вкладывалменьше всего денег в общий котел на первом этапе, и кооперация при повторнойигре она все расставила.

А.К.: Как мы условно называем этистраны?

Д.И.: Кооперативные

М.Б.: Кооперативные. Авторые страны обнаружили такое поведение, которое вообще очень сложноинтерпретировать. Оно заключалось в том, что после того, как проходил первыйэтап и все внесли свои средства, тот, кто больше всех денег в этот общий котелположил, получал наибольшее количество тумаков.

А.К.: Давайте, я угадаю, что это застрана была.

Д.И.: Правда, а какая страна?

А.К.: Назовите хотя бы одну.

М.Б.: Например,Египет, но есть еще другая страна, и вы все ее хорошо знаете. В этой странебыло то же самое.

А.К.: Россия?

М.Б.: Да.

Д.И.: То есть мы такой антикооперативные.

М.Б.: Яне знаю, как это объяснить.

А.К.: На самом деле все это воспето ванекдотах и в народном фольклоре, так что вполне понятная история. У насосталось 30 секунд, а мы самый главный вопрос забыли задать. Поэтому я за егозадаю, а вы постарайтесь очень быстро ответить.

Д.И.: Что такое интеллект?

А.К.: Нет, а зачем вы все это делаете?

М.Б.: Во-первых, чтобы понять,что такое человек, понять природу того, почему он так думает.

Б.Д.: А во-вторых, стать творцом?

М.Б.: Стать творцом исоздать для нас более умную среду, принести пользу человечеству.

А.К.: Понятно, человечество тоже прошлотест Тьюринга, потому что создавать нечто, что гарантировано тебя уничтожит иливытеснит, это, конечно, удивительно нерациональное поведение. А значит, мы люди,что стало ясно из этой программы. Спасибо вам большое!

Б.Д.: Спасибо.

М.Б.: Я с этим несогласен, потому что…

Д.И.: Мы гораздо больше, чем люди,которые проходят тесты на кооперативность. У тех почти искусственный интеллект,а у нас настоящий.

А.К.: Давайте, я с гордостью назовуимена этих самых людей: Борис Долгин, Дмитрий Ицкович, Анатолий Кузичев иМихаил Бурцев. Спасибо.

читайте также
Наука
Леонид Костандов: 1915 – 1984
Ноябрь 27, 2015
Руссо Максим
Наука
Сила самоиронии. К 80-летию Юрия Левады. Рассказывают Теодор Шанин и Борис Юдин
Май 13, 2010
ЗАГРУЗИТЬ ЕЩЕ

Бутовский полигон

Смотреть все
Начальник жандармов
Май 6, 2024

Человек дня

Смотреть все
Человек дня: Александр Белявский
Май 6, 2024
Публичные лекции

Лев Рубинштейн в «Клубе»

Pro Science

Мальчики поют для девочек

Колонки

«Год рождения»: обыкновенное чудо

Публичные лекции

Игорь Шумов в «Клубе»: миграция и литература

Pro Science

Инфракрасные полярные сияния на Уране

Страна

«Россия – административно-территориальный монстр» — лекция географа Бориса Родомана

Страна

Сколько субъектов нужно Федерации? Статья Бориса Родомана

Pro Science

Эксперименты империи. Адат, шариат и производство знаний в Казахской степи

О проекте Авторы Биографии
Свидетельство о регистрации средства массовой информации Эл. № 77-8425 от 1 декабря 2003 года. Выдано министерством Российской Федерации по делам печати, телерадиовещания и средств массовой информации.

© Полит.ру, 1998–2024.

Политика конфиденциальности
Политика в отношении обработки персональных данных ООО «ПОЛИТ.РУ»

В соответствии с подпунктом 2 статьи 3 Федерального закона от 27 июля 2006 г. № 152-ФЗ «О персональных данных» ООО «ПОЛИТ.РУ» является оператором, т.е. юридическим лицом, самостоятельно организующим и (или) осуществляющим обработку персональных данных, а также определяющим цели обработки персональных данных, состав персональных данных, подлежащих обработке, действия (операции), совершаемые с персональными данными.

ООО «ПОЛИТ.РУ» осуществляет обработку персональных данных и использование cookie-файлов посетителей сайта https://polit.ru/

Мы обеспечиваем конфиденциальность персональных данных и применяем все необходимые организационные и технические меры по их защите.

Мы осуществляем обработку персональных данных с использованием средств автоматизации и без их использования, выполняя требования к автоматизированной и неавтоматизированной обработке персональных данных, предусмотренные Федеральным законом от 27 июля 2006 г. № 152-ФЗ «О персональных данных» и принятыми в соответствии с ним нормативными правовыми актами.

ООО «ПОЛИТ.РУ» не раскрывает третьим лицам и не распространяет персональные данные без согласия субъекта персональных данных (если иное не предусмотрено федеральным законом РФ).