Читайте также: |
|
Алексей Сергеевич Потапов
Потапов Алексей Сергеевич
В 2002 году окончил с отличием математико-механический факультет СПбГУ. В 2005 году окончил аспирантуру и защитил кандидатскую диссертацию. В 28 лет защитил диссертацию на соискание ученой степени доктора технических наук. Работает в ГОИ им. С.И.Вавилова в должности начальника лаборатории обучаемых систем анализа изображений. Является профессором кафедры Компьютерной фотоники и видеоинформатики НИУ ИТМО, также является профессором кафедры Конвергенции естественных и гуманитарных наук СПбГУ, где преподает дисциплины «Машинное обучение» и «Общий искусственный интеллект». Автор монографий «Распознавание образов и машинное восприятие: общий подход на основе принципа минимальной длины описания» и «Искусственный интеллект и универсальное мышление», нескольких учебно-методических пособий и свыше 100 научных работ.
Научный руководитель проекта по созданию сильного искусственного интеллекта Aideus.ru
Как вы пришли к работе над искусственным интеллектом? Почему вы делаете то, что делаете?
Проблема искусственного интеллекта (как, впрочем, и наука в целом) меня привлекала с детства. И хотя в университет я поступил на специальность, не связанную с ИИ, со второго курса начал работать в лаборатории, занимающейся автоматическим анализом изображений, параллельно изучая и технологии ИИ в целом. Хотя загадки внешней Вселенной для меня были и остаются не менее интересными, чем загадки мышления, но после окончания вуза я остановился на выборе ИИ как своей области деятельности в силу ее автологичности – сами исследования в области ИИ могут быть использованы для повышения эффективности научных исследований. То есть познание Вселенной через создание ИИ может оказаться оптимальным путем. При этом, правда, как оказалось, большинство работ в области ИИ посвящено слабым методам и не особо решению интересовавших меня проблем. Мое чисто субъективное любопытство к проблеме создания ИИ как способа познания природы мышления и потенциального средства для последующего познания Вселенной было также подкреплено знакомством с концепцией технологической сингулярности, в связи с которой создание ИИ может иметь принципиальное значение для будущего человечества. Когда понимаешь, насколько важной может быть проблема, которая тебя и так глубоко интересовала, вполне можно ее решение сделать своей основной целью.
Как вы относитесь к трансгуманизму и к идее загрузки сознания?
И к трансгуманизму, и к загрузке сознания у меня отношение смешанное. К ним, как к концепциям, я отношусь вполне положительно, однако некоторые детали вызывают большие сомнения.
К примеру, я полагаю, что методы загрузки сознания менее вероятны, чем создание искусственного интеллекта. Сейчас достаточно успешно воспроизводится электрическая активность ансамблей нейронов. Можно предположить, что не так много времени осталось и до полной эмуляции мозга на этом уровне. Однако эмуляция деятельности нейронов только на уровне спайков не учитывает массу принципиальных свойств мозга, основным из которых является обучение. 50% генов человека экспрессируется только в мозге, то есть они являются значимыми для работы мышления, в том числе, и для синаптической пластичности, роста аксонов и т.д. Моделировать же работу мозга на молекулярном уровне нереалистично. Даже на прямое моделирование спайковой активности уходит гораздо больше вычислительных ресурсов, чем на выполнение с нуля разработанных алгоритмов (например, обработки изображений), выполняющих те же самые операции. В этом смысле прямая эмуляция человеческого мозга будет вычислительно заведомо менее эффективной, чем реализация аналогичного по интеллектуальным возможностям ИИ. Чтобы сделать загрузку сознания в эффективной форме, необходимо «дизассемблировать» то, что происходит в мозге, перевести эти процессы хотя бы на язык алгоритмов. А для этого уже нужна общая теория мышления и ИИ, который сделает это автоматически. В связи со всем этим гораздо вероятнее, что ИИ станет сингулярной технологией, и загрузку сознания без создания ИИ сделать будет крайне проблематично.
Цели трансгуманизма вполне хороши, но он традиционно как раз ориентирован на такие вещи, как загрузка сознания или другие формы бессмертия, а проблема ИИ в нем отодвигается на второй план. Создание же ИИ делает все прочие усилия трансгуманизма практически бесполезными: либо создание ИИ позволит гораздо быстрее достичь цели трансгуманизма, либо эти цели станут просто недостижимыми. Именно из-за существенной недооценки значимости проблемы ИИ для трансгуманизма мне кажется, что трансгуманизм как движение может оказать малое влияние на будущее.
Что вообще такое искусственный интеллект и сильный искусственный интеллект? Трактовки сильно разнятся, возможно, у вас есть какое-то четкое и простое определение для неподготовленного человека?
Коротко говоря, слабый ИИ – это любые современные интеллектуальные технологии, которые используются как инструменты при решении сложных («интеллектуальных») задач. Скажем, игровой интеллект для шахмат, система управления автомобилем, система распознавания речи, а также любая экспертная система – это все слабый ИИ. Под сильным ИИ понимается такой интеллектуальный агент, с которым мы сможем общаться как с (хотя бы) равным себе. Такая трактовка, однако, слишком антропоцентрична, и сейчас исследователи предпочитают разделять узкоспециализированный и общий ИИ. Действительно, современные интеллектуальные технологии как раз являются специализированными: шахматная программа не водит машину и даже не играет в го, а система распознавания речи не может быть использована даже для распознавания музыкальных произведений. Общий ИИ должен уметь решать или быть способным научиться решать самые разные задачи (и если эти задачи не связаны с подражанием человеку, то не важно, насколько он при этом будет похож на человека).
В принципе, Siri подпадает и под некоторые подходы к сильному ИИ, но все же в ней отсутствуют принципиальные свойства, без которых она остается продвинутой экспертной системой.
В каком состоянии сегодня находятся наука на пути к созданию сильного ИИ? Какие ближайшие перспективы? Когда примерно будет создан сильный ИИ?
Это сложные вопросы. Состояние науки можно однозначно охарактеризовать повышающимся интересом к проблематике сильного (точнее, общего) ИИ: за последние 10 лет появилось и расширилось (хотя пока еще не особо сильно) сообщество ученых, в явном виде причисляющих себя к этой области. Даже в консервативной академической среде происходит постепенное смещение интереса к общим методам: к примеру, помимо программ, играющих в отдельные игры, разрабатываются и системы general game playing. Все это способствует прогрессу в области общего ИИ, но насколько сильно мы при этом приблизились к созданию сильного ИИ, оценить непросто. Мое субъективное впечатление заключается в том, что до сих пор остаются принципиальные теоретические трудности, без преодоления которых видимых результатов получено не будет. В ближайшее время (скажем, 5 лет) мы можем увидеть лишь или игрушечные системы «сильного ИИ», или продвинутые технологии слабого ИИ, которые могут произвести впечатление того, что еще чуть-чуть, и они превратятся в сильный ИИ, но такого не произойдет. На большее время прогнозировать сложно. Некоторые оптимисты планируют к 2020 году сделать первую версию сильного ИИ, но мне представляется это маловероятным. И все же при работе в области общего ИИ складывается ощущение постоянно «уплотняющегося» времени, свидетельствующего о начале информационного взрыва. Если он действительно приведет к созданию сильного ИИ, то это произойдет, скорее всего, между 2030 и 2050 годами.
Как вы считаете, возможно ли создание сильного ИИ отдельной лабораторией или это мировой труд, требующий интеграции опыта и усилий множества стран?
Это интересный вопрос. Ответ на него зависит от того, какой подход к созданию ИИ считать наиболее перспективным. К примеру, один из подходов заключается в том, чтобы практически вручную создавать базу знаний и здравого смысла (в стиле Cyc). В рамках подобных подходов создание сильного ИИ - это однозначно мировой труд. Или же, скажем, ряд исследователей думает, что общий ИИ – это просто очень большое количество (правильно объединенных) слабых методов. Тогда нужно будет проделать большую работу, чтобы написать многие мегабайты кода для реализации этих методов (или провести рефакторинг существующих реализаций) и объединить их в систему, что также будет грандиозным (хотя и не общемировым) проектом. А есть и те, кто полагает, что нужно небольшое число (пока неизвестных) универсальных методов, которые все остальные компоненты ИИ создадут автоматически. В целом же, для ответа на поставленный вопрос нужно знать, какую часть сильного ИИ нужно создать вручную, а какая часть им будет получена самостоятельно в процессе обучения. Заранее однозначно ответить на этот вопрос сложно. Однако мне кажется странным создавать базы знаний вручную, хотя бы потому, что ребенок рождается без таких баз знаний. С другой стороны, наивно полагать, что и какой-то маленький универсальный ИИ сможет развиться до полноценного сильного ИИ – для этого ему, видимо, пришлось бы повторить всю эволюцию. В этом смысле моя точка зрения располагается где-то между этими крайностями, хотя она, скорее, ближе к тому, что количество закладываемых методов и априорной информации в сильный ИИ может быть не слишком большим. В конце концов, уже сейчас некоторые частные методы могут быть построены автоматически быстрее, чем вручную человеком.
У вас бывают моральные дилеммы от своей работы?
Пока почти нет, но когда возникнет реальная возможность реализации сильного ИИ, сомнения, вероятно, появятся. В целом же, появится ли ИИ или нет, не зависит от отдельных людей, то есть чей-то уход из этой области принципиально ничего не изменит. Так что для меня здесь две альтернативы: либо стараться создать такой ИИ, который будет максимально полезен, либо стараться препятствовать созданию ИИ во всем мире. В возможность реализации последнего я не особо верю.
Если бы у вас сейчас был выбор:
- загрузить свое сознание в машину и, возможно, слиться с ИИ
- умереть
Что бы вы выбрали?
Если других альтернатив не предполагается, то первое.
Vox Populi
Вопросы из социальных сетей
Будет ли использоваться созданный СИИ для дальнейшей разработки самого СИИ?
Есть ли возможность наложения какой–либо готовой матрицы на создаваемый СИИ (клонирование СИИ)? Или самообучение с нуля?
Да, использовать прототипы СИИ для создания более эффективных версий СИИ – вполне разумно. Правда, при удачной начальной архитектуре самосовершенствующегося СИИ этот процесс будет выглядеть не как создание новых версий СИИ, а как развитие одной системы. Естественно, принципиальные препятствия, мешающие копированию СИИ, вряд ли возникнут, так что обучать каждую систему СИИ с нуля будет не обязательно.
Какие первые задачи, имеющие практический результат, будут предложены СИИ? Как ведётся разработка СИИ без соответствующего "железного" обеспечения? Есть возможность использовать как–либо созданные на сегодня фрагменты СИИ? Если да, то как и где они используются? Области, в которых СИИ можно ожидать раньше всего?
Ответы на эти вопросы сильно зависят от того, что какой именно из подходов приведет к СИИ (в частности, нельзя же назвать фрагментами СИИ то, что создается в рамках подходов, которые окажутся неправильными). К примеру, если СИИ может быть создан путем явного закладывания знаний в него в форме разных онтологий и т.д. (что с нашей точки зрения выглядит сомнительным, но не полностью невозможным), то его прямым приложением будет семантический поиск в сети. В случае подхода на основе воплощенного интеллекта это могут быть автономные роботы с самыми разными «профессиями». Хорошей задачей для СИИ является задача анализа «больших данных». Всем этим люди сейчас занимаются, как в рамках слабого, так и сильного ИИ. Также некоторые компании, позиционирующие себя как создающих СИИ, занимаются анализом генетических данных. Мы, однако, полагаем, что ориентация на практические задачи и стремление коммерциализации крайне негативно влияют на работу над СИИ. Запрограммировать взрослый СИИ – крайне трудоемкая задача. Полноценный интеллект гораздо проще формировать путем обучения в социальной среде (но только вербализованных знаний для этого недостаточно). Чтобы начать полезные задачи, такой СИИ, условно говоря, должен будет «закончить школу и университет». При этом он, как человек, сможет приобрести любую специальность (при этом, вероятно, специальности ученого и программиста будут наиболее эффективными в плане ускоряющегося саморазвития). Думать сейчас о том, куда применить «фрагменты СИИ» – это примерно как думать о том, куда применить кусочек мозга эмбриона, или же о том, как лучше использовать ящерицу вместо того, чтобы пытаться ее эволюционировать до человека. Ориентация на практические задачи заставляет использовать и развивать методы слабого, специализированного, ИИ. Промежуточные технологии сильного ИИ всегда в конкретных задачах будут проигрывать слабому ИИ. Более того, сам сильный ИИ на частных задачах будет проигрывать слабому ИИ, как человек проигрывает компьютеру, скажем, в шахматы. Именно поэтому если брать конкретную задачу и стремиться достичь в ее решении конкурентоспособного результата, это будет уводить от работы над СИИ. Конечно, какие-то промежуточные решения в СИИ могут быть успешно внедрены, в первую очередь, для решения менее частных задач, для которых создание специализированного решения становится слишком трудоемким (например, создание роботов, работающих в существенно недетерминированных средах). Но если концентрироваться на таких приложениях, то мы просто вместо ящериц получим динозавров.
Как вы думаете, высока ли вероятность, что когда ИИ станет на порядок умнее человечества он пойдет против него, и есть ли механизмы защиты от этого?
Да; говоря несколько шире, есть вероятность того, что ИИ проявит нежелательное поведение. Хотя эта проблема не всеми признается, но она вполне реальная. Хоть и очень утрированный, но достаточно показательный мысленный эксперимент заключается в следующем: пусть мы создали ИИ с такой безобидной основной мотивацией, как получение и обработка астрономических данных. Однако оптимальным способом достижения этой цели будет превращение всей окружающей материи, включая людей, в телескопы и собственные вычислительные мощности. Или возьмем первый закон Азимова «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред» и робота, хорошо умеющего предсказывать. Такой робот вполне может прийти к выводу, что любому рождающемуся человеку так или иначе будет причинен вред; следовательно, если робот ничего не предпримет, то нарушит первый закон; самый надежный способ предотвратить вред будущим людям, это просто устранить саму возможность их рождения. Проблема не в том, что ИИ может рассматривать человека как врага, а в том, что любую, даже самую благую цель, можно пытаться достичь самыми извращенными способами. Это, в общем-то, и проблема людей, но из-за того, что люди обладают более или менее равными возможностями, эта проблема не оказывалась фатальной. В случае же с ИИ потенциально риск становится огромным, особенно если этому вопросу не уделять внимания. Собственно, определенное внимание ему уделяется (например, была международная конференция по проблемам безопасности ИИ: http://www.winterintelligence.org/agi-impacts-extended-abstracts/). Есть обширные обзоры на эту тему (например, хороший обзор http://intelligence.org/files/ResponsesAGIRisk.pdf). Однако пока есть только общие идеи, как к этой проблеме подходить. «Административными» методами ее не решить, а для ее конструктивного решения на уровне архитектуры ИИ пока не хватает знаний, собственно, о том, каким ИИ будет.
Сильным ИИ занимаются уже давно, каждый раз ученые называли точные сроки, но ИИ как не было так и нет. Почему? Является ли это следствием малых вычислительных мощностей в то время? Какой путь перспективнее: разработка сильного ИИ на общих принципах или копирование структуры человеческого мозга?
Заявления о быстром создании ИИ высказывались на самой заре возникновения этой области. Это было связано с первыми успехами в распознавании символов, доказательстве теорем, игре в разные интеллектуальные игры. Сложно винить ученых того времени в их оптимизме. Ведь тогда впервые решение столь сложных задач было передано машине, и казалось, что дело осталось только за количеством реализованных методов. Естественно, тогда была существенно недооценена сложность процессов мышления. И, конечно, вычислительных мощностей не могло бы хватить, даже если бы все о мышлении было известно.
Был ли столь же массовый не оправдавшийся оптимизм в последующие годы? Скорее, не было. Да, некоторые технологии были переоценены. Скажем, в 70-е годы экспертные системы не оправдали надежд (но надежд не на создание сильного ИИ, а на большой коммерческий эффект). Или пресловутый проект компьютеров пятого поколения… Однако столь стабильного внимания со стороны более или менее адекватных ученых к возможности создания сильного ИИ, пожалуй, не было со времен возникновения этой области. Являлась ли и является ли до сих пор основной проблемой нехватка вычислительных мощностей или недостаток понимания процессов мышления – на этот счет существуют разные методы. Некоторые исследователи полагают, что существующих технологий уже достаточно. Однако это, как и раньше, скорее, следствие переоценки возможностей этих технологий. Из-за этого точные прогнозы сейчас делать сложно. Однако помимо общего развития технологий ИИ, а также нейронаук сейчас основной оптимизм внушают прогнозы как раз по сравнительно скорому достижению компьютерами вычислительных мощностей мозга (оценки которых, правда, тоже не слишком надежны). Кроме того, общие прогнозы по достижению технологической сингулярности также являются косвенным доводом в пользу возможности создания ИИ в обозримом будущем.
Относительно перспективности путей мне кажется, что слепое копирование структуры мозга обладает чрезмерно низким КПД в смысле производительности и чисто из соображений вычислительных мощностей оно будет доступно для реализации существенно позже. А копирование этой структуры на алгоритмическом уровне требует как раз знания общих принципов. В этой связи мы полагаем более перспективным развивать общую теорию, хотя данные о строении мозга могут давать некоторые подсказки.
- голосом Познера
«Это был Алексей Сергеевич Потапов»
Связаться с Алексеем Сергеевичем можно так begimov@aideus.com skype: g.begimov
Дата добавления: 2015-09-03; просмотров: 134 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
N Полная симуляция реальности | | | Глава 5 |