Русская Википедия:Юдковский, Элиезер
Шаблон:Учёный Элие́зер Шло́мо Юдко́вский (Шаблон:Lang-en; род. 11 сентября 1979) — американский специалистШаблон:Нет АИ по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ[1][2]. Ключевая фигура сообщества рационалистов.
Биография
Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев[3].
Научные интересы
Юдковский — сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI)[4]. Он — автор книги «Создание дружественного ИИ»[5], статей «Уровни организации универсального интеллекта»[6], «Когерентная экстраполированная воля»[7] и «Вневременная теория принятия решений»[8][9]. Его последними научными публикациями являются две статьи в сборнике «Риски глобальной катастрофы» (2008) под редакцией Ника Бострома, а именно «Искусственный интеллект как позитивный и негативный фактор глобального риска» и «Когнитивные искажения в оценке глобальных рисков»[10][11][12]. Юдковский не обучался в вузах и является автодидактом без формального образования в области ИИ[13].
Юдковский исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса»[14][15].
Юдковский был вместе с Робином Хансоном одним из главных авторов блога Overcoming Bias (преодоление предубеждений). В начале 2009 года он участвовал в организации блога LessWrong, нацеленного на «развитие рациональности человека и преодоление когнитивных искажений». После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см. например, цепочку «теория развлечений»[16].
Юдковский — автор нескольких научно-фантастических, рациональных рассказов, в которых он иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой LessWrong[17].
В начале 2020-х гг. начал публично выступать о высокой вероятности Шаблон:Нп3[18]. В опубликованной в марте 2023 года статье для Time он написал, что без маловероятного всемирного моратория на обучение общих ИИ-моделей умнее GPT-4, который государства были бы готовы поддерживать силовыми методами (вплоть до уничтожения датацентров, отказывающихся соблюдать ограничения, даже если есть шанс конфликта между ядерными державами), человечество обречено[19]. Вслед за ним похожее беспокойство начали высказывать два из трёх «крёстных отцов» искусственного интеллекта, Йошуа Бенжио[20] и Джеффри Хинтон[21].
Сочинения
- Our Molecular Future: How Nanotechnology, Robotics, Genetics and Artificial Intelligence Will Transform Our World by Douglas Mulhall, 2002, p. 321.
- The Spike: How Our Lives Are Being Transformed By Rapidly Advancing Technologies by Damien Broderick, 2001, pp. 236, 265—272, 289, 321, 324, 326, 337—339, 345, 353, 370.
- Академические публикации
- Шаблон:Cite conference
- Шаблон:Книга
- Шаблон:Книга
- Шаблон:Cite conference
- Шаблон:Книга
- Шаблон:Статья
- Шаблон:Книга
- Шаблон:Cite conference
- Шаблон:Cite conference
- Шаблон:Статья
- Статьи на русском
- Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков
- Искусственный интеллект как позитивный и негативный фактор глобального риска
- Рациональность: от ИИ до зомби
Примечания
Ссылки
- Personal web site
- Biography page at KurzweilAI.net
- Biography page at the Singularity Institute
- Downloadable papers and bibliography
- Less Wrong — «A community blog devoted to refining the art of human rationality» founded by Yudkowsky.
- Переводы статей по рациональному мышлению на русский
- Predicting The Future :: Eliezer Yudkowsky, NYTA Keynote Address — Feb 2003
- Eliezer Yudkowsky on The Agenda with Steve Paikin discussion panel, «Robotics Revolution and the Future of Evolution» at the Quantum to Cosmos Festival, with Hod Lipson, Michael Belfiore, Cory Doctorow
- Less Wrong Q&A with Eliezer Yudkowsky: Video Answers
- Глава о Юдковском в книге «21st Century Technology and Its Radical Implications for Mind, Society and Reality»
- Шаблон:Публикация
- Фанфик Harry Potter and the Methods of Rationality (перевод: Гарри Поттер и Методы Рационального Мышления)
- ↑ Шаблон:Cite book
- ↑ Шаблон:Cite book
- ↑ Шаблон:Cite web
- ↑ Шаблон:Книга
- ↑ Creating Friendly AI, 2001
- ↑ Levels of Organization in General Intelligence, 2002
- ↑ Coherent Extrapolated Volition, 2004
- ↑ Timeless Decision Theory, 2010
- ↑ Шаблон:Cite web
- ↑ Шаблон:Cite web
- ↑ Шаблон:Cite web
- ↑ Шаблон:Книга
- ↑ Шаблон:Cite web
- ↑ «An Intuitive Explanation of Bayes' Theorem»
- ↑ перевод
- ↑ Sequences — Lesswrongwiki
- ↑ Yudkowsky — Fiction
- ↑ Шаблон:Cite web
- ↑ Шаблон:Cite web
- ↑ Шаблон:Cite web
- ↑ Шаблон:Cite web
Шаблон:Выбор языка Шаблон:Трансгуманизм Шаблон:Rq
- Русская Википедия
- Философы XX века
- Философы XXI века
- Активисты продления жизни
- Блогеры США
- Либертарианцы США
- Трансгуманисты США
- Исследователи искусственного интеллекта
- Страницы, где используется шаблон "Навигационная таблица/Телепорт"
- Страницы с телепортом
- Википедия
- Статья из Википедии
- Статья из Русской Википедии