20 мая 2019, понедельник, 23:30
VK.comFacebookTwitterTelegramInstagramYouTubeЯндекс.Дзен

НОВОСТИ

СТАТЬИ

PRO SCIENCE

МЕДЛЕННОЕ ЧТЕНИЕ

ЛЕКЦИИ

АВТОРЫ

16 декабря 2012, 21:36

Стоит ли бояться искусственного интеллекта?

Искусственный интеллект
Искусственный интеллект

Прыжок в будущее

В программном заявлении основатели центра утверждают: «Многие ученые обеспокоены тем, что в результате развития человеческих технологий скоро возникнут новые риски, ставящие под вопрос существование нашего вида в целом». В качестве подобных опасностей в центре выделяют искусственный интеллект, климатические изменения, биотехнологии и нанотехнологии.

Глава создаваемого центра профессор философии Хью Прайс опубликовал в августе 2012 года статью «ИИ: сможем ли мы удержать его в коробке?», в которой призвал серьезно рассмотреть возможные угрозы: «Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственному интеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться». Философ считает, что как только мы поставим такую проблему, то будет необходимо инициировать серьезные исследования того, как сделать разработку интеллектуальных машин наиболее безопасной с точки зрения будущего человечества. 

Основной причиной опасности «ультра-умных» машин создатели проекта видят принципиальное отличие их предполагаемого интеллекта от человеческого. Все ценности – такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история – нет ни одной причины полагать, что машины будут разделять их с нами. По словам Прайса, машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия. 

Машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия. 

Скорое создание интеллектуальных машин, которые будут «умнее» человека, предрекают начиная с середины XX века. Аллен Ньюэлл и Герберт Саймон в 50-е, Марвин Минский в 60-70-е, и многие другие в более позднее время предсказывали решение проблемы разработки ИИ в течение 10-20 лет, начиная с момента заявления. Один из наиболее известных на сегодняшний момент футурологов Рэй Курцвейл предсказывает, что к 2029 году компьютер сможет пройти тест Тьюринга, что, по его мнению, будет доказывать у него наличия разума. Курцвейл в 2009 году основал Университет Сингулярности с целью изучении последствий «технологической сингулярности» - момента, когда скорость развития технологий достигнет немыслимых значений.

Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.

Обсудите в соцсетях

Система Orphus
«Ангара» Африка Византия Вселенная Гренландия ДНК Иерусалим КГИ Луна МГУ Марс Металлургия Монголия НАСА РБК РВК РГГУ РадиоАстрон Роскосмос Роспатент Росприроднадзор Русал СМИ Сингапур Солнце Юпитер акустика антибиотики античность археология архитектура астероиды астрофизика бактерии бедность библиотеки биомедицина биомеханика бионика биоразнообразие биотехнологии блогосфера викинги вирусы воспитание вулканология гаджеты генетика география геология геофизика геохимия гравитация грибы дельфины демография демократия дети динозавры животные землетрясение змеи зоопарк зрение изобретения иммунология импорт инновации интернет инфекции ислам исламизм исследования история карикатура картография католицизм кельты киты климатология комета кометы компаративистика космос культура лазер лексика лженаука лингвистика льготы мамонты математика материаловедение медицина метеориты микробиология микроорганизмы мифология млекопитающие мозг моллюски музеи насекомые наука нацпроекты неандертальцы нейробиология неолит обезьяны общество онкология открытия палеолит палеонтология память папирусы паразиты перевод питание планетология погода политика право приматы психиатрия психоанализ психология психофизиология птицы ракета растения религиоведение рептилии робототехника рыбы сердце смертность сон социология спутники старение старообрядцы стартапы статистика такси технологии тигры топливо торнадо транспорт ураган урбанистика фармакология физика физиология фольклор химия христианство школа экология эпидемии эпидемиология этология язык Древний Египет Западная Африка Латинская Америка НПО «Энергомаш» Нобелевская премия РКК «Энергия» Российская империя Сергиев Посад альтернативная энергетика аутизм биология бозон Хиггса глобальное потепление грипп информационные технологии искусственный интеллект история искусства история цивилизаций исчезающие языки квантовая физика квантовые технологии компьютерная безопасность компьютерные технологии космический мусор криминалистика культурная антропология междисциплинарные исследования местное самоуправление мобильные приложения научный юмор облачные технологии обучение одаренные дети педагогика персональные данные подготовка космонавтов преподавание истории продолжительность жизни происхождение человека русский язык сланцевая революция финансовый рынок черные дыры эволюция эмбриональное развитие этнические конфликты ядерная физика Вольное историческое общество жизнь вне Земли естественные и точные науки НПО им.Лавочкина Центр им.Хруничева История человека. История институтов Протон-М 3D Apple Big data Dragon Facebook Google GPS IBM MERS PRO SCIENCE видео ProScience Театр SpaceX Tesla Motors Wi-Fi

Редакция

Электронная почта: [email protected]
Адрес: 129090, г. Москва, Проспект Мира, дом 19, стр.1, пом.1, ком.5
Телефон: +7 929 588 33 89
Яндекс.Метрика
Свидетельство о регистрации средства массовой информации
Эл. № 77-8425 от 1 декабря 2003 года. Выдано министерством
Российской Федерации по делам печати, телерадиовещания и
средств массовой информации. Выходит с 21 февраля 1998 года.
При любом использовании материалов веб-сайта ссылка на Полит.ру обязательна.
При перепечатке в Интернете обязательна гиперссылка polit.ru.
Все права защищены и охраняются законом.
© Полит.ру, 1998–2019.