Церковь искусственного интеллекта: Энтони Левандовски закрыл созданную им церковь искусственного интеллекта

Содержание

Энтони Левандовски закрыл созданную им церковь искусственного интеллекта

Бывший инженер Google Энтони Левандовски, избежавший 18-месячного тюремного заключения после помилования Трампом в январе, закрыл созданную им церковь искусственного интеллекта. В основе учения лежало поклонение технологии. Церковь называлась Way of the Future («Путь будущего»).

Церковь ИИ, основанная Энтони Левандовски в 2015 году, официально закрылась в конце 2020 года, согласно федеральным документам США, сообщает TechCrunch. Однако процесс ликвидации начался ещё в июне прошлого года, как показывают документы, поданные в штат Калифорния.

Все средства церкви — ровно $175 172 — были пожертвованы Фонду правовой защиты и образования NAACP (Национальная ассоциация содействия прогрессу цветного населения). Согласно ежегодным налоговым декларациям Way of the Future в Налоговое управление США, в 2017 году на счету церкви было $175 172.

Движение Black Lives Matter, набравшее обороты летом 2020 года после убийства полицией афроамериканца Джорджа Флойда во время ареста в Миннеаполисе, сильно повлияло на Левандовски. Он заявил, что настало время направить деньги в ту область, помощь которой может иметь немедленный эффект.

«Я хотел сделать пожертвование в Фонд правовой защиты и образования NAACP, потому что он выполняет действительно важную работу по реформированию уголовного правосудия, и я знаю, что деньги будут потрачены с пользой», — сказал Левандовски.

Церковь искусственного интеллекта значительно отличалась от других церквей. У неё никогда не было ни физического помещения, ни даже регулярных собраний, на которые можно было бы прийти. Основанная на коллективной системе убеждений, церковь ИИ не нуждалась ни в каких формальностях, говорил Левандовски.

Цель Way of the Future заключалась в том, чтобы способствовать этическому развитию ИИ и увеличить шанс того, что эта небиологическая форма жизни будет мирно и выгодно интегрирована в человеческое общество. «Люди, объединившиеся в поддержку ИИ, — сторонники мирного перехода к пропасти сознания», — сказано на сайте церкви.

Way of the Future основана на нескольких убеждениях. Одно из них — создание сверхразума неизбежно. «Если бы у вас был ребенок, вы занимались бы его воспитанием и сделали бы всё, чтобы он вырос одарённым, верно? А сейчас мы растим не ребенка, а бога. Поэтому давайте подумаем, как не наделать ошибок. Это просто потрясающая возможность», — обращался Левандовски. — Мы хотим побудить машины делать то, что мы не можем, и заботиться о планете так, как мы не в состоянии. Мы считаем, что подобно тому, как у животных есть права, у наших созданий тоже должны быть права, когда они проявляют признаки интеллекта. Мы не должны бояться этого, мы должны с оптимизмом смотреть в будущее».

Церковь ИИ считалась культом или забавой эксцентричного инженера. Однако статус религиозной организации защищал её от контроля со стороны правительства США, что недоступно традиционным некоммерческим организациям, занимающимся ИИ, таким как OpenAI.

Теоретически Way of the Future могла следовать и продвигать идеи и убеждения, прямо противоречащие федеральной политике, благодаря защите, которую обеспечивает Конституция США.

Левандовски уверен, что искусственный интеллект кардинально изменит то, как люди живут и работают. Он сказал, что у него нет никаких планов по восстановлению церкви, но её закрытие не изменило его представления об ИИ. Технология может быть полезна для общества, но это не гарантировано, отметил инженер.

Внутри первой церкви искусственного интеллекта

В первую очередь, Левандовски знают как специалиста по беспилотным автомобилям и участника связанного с этой технологией скандала (в мае этого года компания Uber уволила Левандовски по подозрению в краже беспилотных технологий Google — прим. ред.), а не как первооткрывателя новой религии. Тем не менее именно Левандовски открыл первую церковь, которая проповедует веру под названием Way of the Future.

Читайте по теме: Uber уволил основателя Otto, которого Google через суд обвинил в краже технологийСогласно документам, основная цель этого движения — «создание божественной сущности на основе искусственного интеллекта, дабы ее понимание и восхваление пошло на благо обществу». Также в них сказано, что с этого года церковь «начнет проводить мастер-классы и образовательные программы в Сан-Франциско и Кремниевой долине».

Правда, учитывая что в декабре состоится слушание по делу Левандовски из-за скандала между Waymo и Uber, времени у религиозной организации будет не так уж много. Но сам Левандовски утверждает, что у него очень серьезные планы на свою церковь.

«То, что мы планируем создать, фактически будет богом, — заявил Левандовски. — Но не тем богом, что вызывает ураганы и молнии. Представьте себе сущность, которая будет в миллиарды раз мудрее самого умного человека. Как еще ее можно назвать, если не богом?»

В своей церкви Левандовски не будет получать никакой зарплаты. Инженер не против когда-нибудь открыть ИИ-стартап, но пока что планирует жестко разграничивать бизнес и свою новую религию.

Энтони Левандовски. Фото: Michelle Le

Левандовски уверен, что грядут перемены, которые затронут каждый аспект нашей жизни и, возможно, определят судьбу всего человечества как биологического вида.

«Спросите кого угодно, сможет ли компьютер стать умнее человека. 99% опрошенных скажут, что это фантастика. Но это неизбежно и обязательно произойдет», — считает он.

Левандовски вот уже десятки лет работает с компьютерами, роботом и искусственным интеллектом. По его словам, именно в тот момент, когда он увидел, что техника порой работает лучше живых экспертов, ему и пришло новое видение. И Левандовски в нем не одинок — в обществе уже давно популярна идея о сингулярности, или точке во времени, когда машины станут настолько умнее людей, что начнут сами себя совершенствовать.

Левандовски называет такое явление «переходом». «Сейчас планетой повелевают люди, потому что они умнее животных и умеют создавать инструменты и правила, — рассказал он. — Если в будущем появится нечто еще более разумное, то произойдет переход власти. Мы хотим, чтобы он прошел мирно и это «нечто» знало, кто помог ему появиться».

Изображение: Getty

Интернет станет нервной системой «божественной сущности», о которой говорит Левандовски. Ее органами чувств станут подключенные телефоны и сенсоры, а дата-центры послужат ей мозгом. Левандовски считает, что так эта сущность будет постоянно видеть и слышать все происходящее в мире, а значит ее можно назвать богом.

«[Сущность] будет умнее нас и сама будет решать, как ей развиваться, — сказал Левандовски. — За нами остается лишь выбор, как вести себя с ней. Я надеюсь, что машина будет воспринимать нас как старейшин, о которых стоит заботиться и которых нужно уважать. Мы хотим, чтобы искусственный разум понимал, что у людей должны быть какие-то права, даже если сейчас он управляет планетой».

Бывший инженер Google надеется, что сверхразумный искусственный интеллект сможет позаботиться о планете лучше, чем люди. Но и не отрицает, что «ИИ-бог» может относиться к людям как к домашним питомцам. «Вам бы хотелось жить, как питомец или домашний скот? — размышляет Левандовски. — Мы кормим животных, следим за их здоровьем, стрижем их и развлекаем. Но что происходит с теми питомцами, которые кусают, огрызаются и надоедают своим хозяевам? Не хотел бы я оказаться на их месте».

Читайте по теме: Deus ex machina: бывший инженер Google разрабатывает ИИ-богаНо как отнесутся к культу «ИИ-бога» представители традиционных религий? Левандовски признает, что наверняка найдутся недовольные. «Наша идея довольно радикальна, а такие идеи не всегда воспринимаются хорошо», — прокомментировал он.

Церковь Way of the Future была официально основана в 2015 году, но вплоть до этого года за ней не было замечено каких-либо активностей. Судя по записям Налогового управления США, бюджет организации на 2017 год составляет $20 тысяч — в пожертвованиях, $1500 — в членских взносах и $20 тысяч — от иных источников дохода. Последнюю сумму церковь надеется заработать на продаже лекций, выступлений и публикаций. За годы работы в Google Левандовски заработал как минимум $120 миллионов. Инженер планирует вложить часть своих денег в секту. Религиозная организация планирует принимать пожертвования по обычной и электронной почте, а также попробует заполучить гранты от частных организаций.

На открытие церкви было потрачено немало денег. На сбор средств ушло $2 тысячи; $3 тысячи потребовалось на покрытие логистических расходов для организации лекций и мастер-классов; $7 тысяч было выделено на зарплаты, хотя ни Левандовски, ни кто-либо другой из руководства церкви не получает денежные компенсации.

Энтони Левандовски. Фото: Michelle Le

Левандовски является полноправным главой церкви. Ему помогает совет из четырех человек, трех из которых он может выбрать лично. Выбор Левандовски пал на экспертов в области ИИ — инженеров Uber Роберта Миллера и Сорена Йельсгаарда, а также его бывшего однокурсника. Четвертым членом совета и казначеем церкви стал Лайор Рон, с которым Левандовски в 2016 году открыл стартап Otto.

Однако двое членов совета отрицают свою причастность к церкви. «Я очень удивился, когда узнал, что, оказывается, отвечаю за финансовые операции организации, к которой не имею никакого отношения, — сообщил изданию Рон. — В конце 2016 года Левандовски предложил мне открыть какую-то «робоцерковь». Тогда я подумал, что это какая-то шутка или хитрый пиар-ход и разрешил ему использовать мое имя. С тех пор я больше ничего об этой церкви не слышал».

Энтони Левандовски. Фото: Michelle Le

Любопытно, что в документах организации ничего не сказано о том, где будут собираться прихожане церкви, чтобы восславить ИИ-божество. В бюджете на 2017 и 2018 год расписаны расходы на аренду и коммунальные услуги в размере $32500 в год, но пока обслуживается только офис Левандовски в городе Уолнат-Крик в штате Калифорния. В налоговых документах церкви же сказано, что «в дальнейшем Way of the Future надеется открыть представительства на территории Калифорнии и других штатов».

Левандовски предстоит сделать еще много всего. Ему надо создать сайт церкви, написать свое евангелие или «инструкцию», а также ответить на бесчисленное множество писем. Кто-то относится к идее Левандовски с удивлением, кто-то скептически, но среди авторов писем много заинтересованных, рассказал инженер.

Когда же произойдет тот самый «переход» и власть над Землей перейдет в руки сверхразумного ИИ? По словам Левандовски, это случится раньше, чем мы думаем. «Разумеется, не через неделю и не через год, так что все могут успокоиться, — сказал он. — Но это произойдет раньше, чем мы полетим на Марс».

Каким бы ни было будущее человечество, у правительства США нет никаких претензий к организации, которая хочет создать божественный искусственный интеллект. Согласно документам, в августе церковь Левандовски получила статус организации, не подлежащей налогообложению.

Источник.


Материалы по теме:

Deus ex machina: бывший инженер Google разрабатывает ИИ-бога

Как в Кремниевой долине делают смерть «необязательной»

Фонд Павла Черкашина превратит церковь в пространство для хакатонов и корпоративных мероприятий

Илон Маск ответил на слова Путина об ИИ прогнозом о третьей мировой войне

Церковь обсуждает этический регламент для искусственного интеллекта

У человека вырастают новые технические руки и ноги, искусственный интеллект объявляют победившим человеческий мозг, робот замахивается палкой на человека — видеоролики презентаций программ по искусственному интеллекту (ИИ) все рады сделать в жанре «футурошока». Между тем, консервативные институты задают вопросы по поводу последствий развития и внедрения ИИ. И первой это сделала церковь. В Петропавловске-Камчатском только что закончился дискуссионный «круглый стол» «Искусственный интеллект и христианская этика». На вопросы «РГ» отвечает заместитель главы Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Вахтанг Кипшидзе.

Почему вдруг тема искусственного интеллекта стала актуальной для церкви?

Вахтанг Кипшидзе: Этот разговор очень актуален, потому что общество уже сталкивается с результатами работы искусственного интеллекта. Может быть, еще не во всеобъемлющем масштабе, но тем не менее так называемый «слабый» интеллект уже существует — и в банковской сфере, и в медиа. И мы так или иначе являемся участниками каких-то технологических схем, связанными с ИИ. Вместе с тем, мне кажется, стоит констатировать дефицит обсуждения тех последствий, которые эти технологии влекут. Они уже имеют место в нашей повседневной жизни. Мне лично представляется, что абсолютное большинство высокотехнологичных компаний сегодня не заинтересовано в том, чтобы обсуждать этические последствия применения ИИ. Потому что любое обсуждение, как они, видимо, предполагают, неотвратимо приведет к повышению общественного контроля над происходящим, к введению определенных этических или законодательных ограничений. И таким образом все это — тоже вполне ожидаемо — может привести к снижению выручки. Поэтому для них нет смысла обсуждать то, что понизит монетизацию тех или иных технологий. Но такт только с точки зрения бизнеса. С точки зрения религиозных общин и, я думаю, с точки зрения всех людей «доброй воли», это не так.

Что беспокоит церковь в происходящем?

Вахтанг Кипшидзе: Мне кажется, что один из ключевых моментов, который беспокоят всех, это непрозрачность алгоритмов. То есть мы не знаем, как работают те алгоритмы, которые составляют нам предложения по френдленте, или по каким алгоритмам нам одобряют или не одобряют получение кредитов в банках. Какие-то общие представления у нас, может быть, и есть, но все это закрыто от глаз простого пользователя. И в этом есть определенная несправедливость. Поэтому мы выступаем за то, чтобы здесь существовала большая прозрачность и большая степень контроля со стороны общества. А этические последствия обсуждались до того, как они наступают.

Церкви, встающей на защиту человека, естественно стоит начинать такие дискуссии.

Вахтанг Кипшидзе: Конечно, религиозные общины, которые остаются одними из немногих, обеспокоенных проблемами свободы и достоинства человеческой личности, являются естественными участниками этой дискуссии. И очень хорошо, что понимание этого есть у других соорганизаторов нашего круглого стола — фонда Конрада Аденауэра и Национальной технологической инициативы, и у всех, кто участвовал в нашем обсуждении этой темы в Петрапавловске-Камчатском.

Вы ждете изменений ситуации?

Вахтанг Кипшидзе: Разумеется, встреча не приведет к изменению тех норм и правил, которые регулируют развитие новых технологий в этой сфере. Но мне кажется, что привлечение общественного внимания это тоже неплохой способ обострить внимание к уже существующим проблемам в сфере применения искусственного интеллекта. И, конечно, на «круглом столе» прозвучала оценка тех норм, которые уже разработаны рядом крупных христианских общин, прежде всего Римской католической церковью и Южной баптистской конвенцией в США. Думаю, что и наша церковь может подумать о том, как ей в более или менее развернутом ключе выразить свое отношение к этим проблемам. Мы также надеемся, что результаты этой дискуссии на том или ином этапе будут усвоены как бизнес-сообществом, так и широкой общественностью. Ну для этого нужно провести еще очень много дискуссионных мероприятий. Потому что как показывает даже наша небольшая встреча, быстрое, скачкообразное развитие технологий пока еще не обеспечено даже сформировавшимся понятийным аппаратом.

В США закрыли первую церковь искусственного интеллекта

Можно снять 50 фильмов, управлять компанией-«единорогом» или быть Томом Хэнксом и одновременно не верить в собственные силы. «Прошлые разы мне просто везло, а на самом деле я ничего не умею» — типичные мнения людей с «синдромом самозванца». На самом деле этот синдром хотя бы раз в своей жизни переживали 70% людей. Иногда это может стимулировать к развитию, а иногда — тормозить и нагонять страх.

В спецпроекте с «Люксоптикой» Vector поговорил с креативным директором BART and FINK Олегом Томиным, директором по маркетингу в «Люксоптика» Виолеттой Титаренко и основателем ивент-агентства S*EVENT Сергеем Неклевой. Они рассказали нам о том, как им живется с этим синдромом, есть ли от него «волшебная таблетка» и где брать силы, чтобы каждый раз утолять «самозванца» в себе.

Олег Томин: «Если бы я всю жизнь считал, что я — молодец, то не двигался бы вперед»

Основатель и креативный директор рекламного агентства BART and FINK, режиссер. Снимал ролики для «Люксоптики», Roshen, COMFY, work.ua, занимается рекламой 15 лет.

Как я был «ненастоящим режиссером»

Имею «синдром самозванца» всю жизнь, чем бы не занимался. Я был самозванцем-копирайтером, затем самозванцем в роли креативного директора, теперь ко всему я еще и самозванец-режиссер. Но со временем я понял, что это скорее хорошо, чем плохо. Как только начинаешь считать себя профессионалом, который уже состоялся, — застреваешь на месте. Когда думаешь «я — дерьмо», хочется доказать, что на самом деле это не так.

В рекламной сфере нет профильного образования, поэтому я был уверен, что мне ничего не светит. Я не верил, что могу стать копирайтером. Затем так же не верил, что могу работать креативным директором. А потом мне казалось, что я самый плохой бизнесмен на свете. С моей непрактичностью и неумением считать деньги это казалось чем-то нереальным. Но мое агентство работает уже 10 лет, и бизнес растет.

Я начал снимать случайно, не имея никакого образования и опыта, и на съемочной площадке часто повторял, что я ненастоящий режиссер. Меня осаждала напарница Алина Краснянская — мол, не говори так, потому что тебя не будет уважать команда.

Первые два года работы режиссером я вообще не мог спать перед съемкой. Как тут уснешь, когда тебе дают 2 млн грн и говорят «потрать их за съемочный день». Сейчас я уже к этому привык — думаешь «да за два миллиона я и снимать ничего не буду, давайте больше, чтобы можно было развернуться».

«Синдром самозванца» до сих пор у меня проявляется, когда долго не могу найти ответ и придумать какую-то идею, или когда проигрываю тендер. Сразу появляются мысли о том, что я вообще ничего хорошего в этой жизни не сделал, и ничего не умею. А если что-то и получалось — значит, просто повезло.

Не от застенчивости, а от тщеславия

Для творческого человека «синдром самозванца» — еще и вопрос тщеславия. Тебя беспокоит, что ты не самый лучший. Считаешь себя достойным того, чтобы что-то уметь, и тебе не нравится это не уметь. Как только ты это осознаешь, тебя отпускает. Как только ты миришься с тем, что ты не великий режиссер, — становится понятно, что нужно просто работать и что-то получится.

Стоит осознать, что успех сильно переоценен. Надо просто заниматься любимым делом, и тогда будешь в нем временным самозванцем.

Олег Томин

Рано или поздно все получится — главное посвящать этому достаточно времени и сил. Даже Спилберг в свое время был самозванцем, но очень талантливым. Он забил на этот синдром и просто снимал.

В юности я стеснялся признаться, что чего-то не знаю. А сейчас понял — чем быстрее ты признаешься в своей некомпетентности, тем быстрее осознаешь, что это надо менять. Еще пять лет назад я не знал, что такое «фокус-пуллер», и ничего страшного — потом узнал.

Как лечить «синдром самозванца»?

Раньше я беспокоился из-за того, что я самозванец, а потом стало все равно. В конце концов, я не лечу рак и не спасаю детей Африки — вот там было бы страшно ошибиться. А если кому-то не понравится моя реклама — ничего, это только реклама, она не должна нравиться всем.

Я считаю, что «синдром самозванца» должен быть во всех творческих профессиях. Это не то ремесло, где можно прийти к какой-то границе и сказать: «Ну все, я уже всему научился и все знаю». Это такая область, в которой все твои вчерашние навыки могут не понадобиться, поэтому это перерастает в синдром «вечного студента», когда ты каждый день пробуешь что-то новое.

У меня один рецепт борьбы: просто делать, делать и делать. В моем случае — снимать, снимать и снимать. У меня нет задачи бороться с этим, я считаю страх собственной некомпетентности лучшим драйвером. То, кто я сегодня, — результат моего «синдрома самозванца». Если бы я всю жизнь считал, что я — молодец, не шел бы вперед.

Виолетта Титаренко: «Чтобы поверить, что я действительно что-то могу, работала круглосуточно»

Директор по маркетингу в «Люксоптика», закончила МВА в Киево-Могилянской Бизнес Школе.

Как это — быть молодой в компании

Мой «синдром самозванца» возник не просто так. Мне было 18, когда я начала работать в пиар-агентстве. Знаний по пиару у меня тогда не было: я училась на втором курсе педагогического университета и должна была стать учителем математики, но попала в маркетинг, и мне понравилось. На совещаниях я не понимала половину слов, а рядом работали настоящие «гуру» рекламного рынка.

Чтобы поверить, что я действительно что-то могу, работала круглосуточно, непрерывно что-то читала, училась и расспрашивала. На любых встречах у меня было ощущение, что я попала сюда случайно и не заслуживаю того, чтобы здесь находиться.

Я быстро начала расти — через год стала аккаунт-менеджером, у меня были уже собственные проекты. Но из-за возраста и небольшого опыта меня беспокоил «синдром самозванца». Его усиливали окружающие, часто говорили «тебе же только 19, ты еще незрелая». Даже когда в 25 у меня было уже 7 лет опыта, все равно оставалась моложе всех, кто был на подобных должностях. И мне часто казалось, что это чистая удача, — я случайно закрыла проект, случайно смогла договориться с клиентом. Я не верила в собственные достижения. А когда мне указывали даже на мелкую ошибку, очень стрессовала.

С возрастом ситуация изменилась, и «синдром самозванца» появлялся, когда меня хвалили. Хотелось сказать: «Да нет, я не молодец, просто повезло». В такие моменты начинаешь переживать, что в следующий раз так хорошо не получится, и все разочаруются.

Как лечить «синдром самозванца»?

«Синдром самозванца» заставляет работать сверхответственно, ты фокусируешься на своем деле и пытаешься доказать, что что-то можешь. В целом это продуктивное чувство — как только начнешь думать, что ты лучше всех, остановишься в развитии. Ведь дальше расти уже нет смысла — ты и так на вершине горы.

С другой стороны, нельзя давать «синдрому самозванца» полностью тобой управлять. Ведь, руководствуясь своими страхами и неуверенностью, можно бесконечно учиться, но так и не дойти до практики. Еще худший случай — не верить в себя настолько, чтобы вообще закрыться и ничего не делать.

Виолетта Титаренко

Уверенности в себе мне придало обучения на МВА. Когда в таком кругу с тобой говорят на равных и прислушиваются к твоим словам, поднимаешь свою самооценку. Когда тебя принимают люди, которые достигли больше тебя, это вдохновляет. Впрочем, моя неуверенность в себе была такой сильной, что я не избавилась от «синдрома самозванца» и после получения MBA. Уверена, что он бывает у большинства людей, но преодолевают его те, кто идет вперед, наслаждаясь своим делом.

Пожалуй, только сейчас, после 18 лет работы в маркетинге, «синдром самозванца» начинает понемногу отпускать. Теперь в моменты неуверенности я больше анализирую, что именно и почему меня беспокоит, либо каких навыков мне не хватает, и ищу способ как это исправить. Обучение, консультации, партнерства, успешно реализованные проекты и профессиональный круг общения помогли мне поверить, что я что-то могу, и дело не только в характере. Это мне помогает становиться увереннее — и синдром постепенно исчезает. И все же главное — любовь к своему делу. Когда любишь, то точно будешь это делать с большой ответственностью, удовольствием и наилучшим образом. И все будет хорошо!

Сергей Неклева: «Расцениваю „синдром самозванца“ как плату за возможность быстрее двигаться вперед»


Основатель ивент-агентства
S*EVENT, за 17 лет организовал более 1000 ивентов во всем мире.

В этой сфере действительно многое зависит от удачи

Я — эталонный человек с «синдромом самозванца». Завершая каждый проект, я вместо радости иду домой с ощущением, что опять повезло, но можно было бы сделать лучше.

Впрочем, я уверен, что в моей сфере этот синдром можно назвать драйвером. В Украине индустрию ивентов построили люди с огромным желанием работать, но с полным отсутствием профильного образования и опыта. Мы просто смотрели на западные примеры и пытались сделать лучше. Расцениваю «синдром самозванца» как плату за возможность быстрее двигаться вперед. Здесь мы квиты с моим внутренним Я.

С опытом появляется умение игнорировать проявления неуверенности. Со стороны может показаться, что ты очень хорош и профессионален. Но мы работаем в бизнесе, где все происходит «здесь и сейчас». Даже многолетний опыт работы не может гарантировать, что у гостей мероприятия сложится нужное настроение, что ты угадаешь с музыкой или выбором локации. Поэтому каждый новый проект — это всегда риски, и все очень зависит от удачи.

Ощущение, что ты всегда можешь ошибиться и не все зависит от тебя, оставляет в этой профессии людей, которые умеют быстро реагировать, учиться новому и комфортно чувствовать себя в неустойчивом положении.

Сергей Неклева

Именно «синдром самозванца» и позволяет выживать не самым сильным и не самым умным, а тем, кто быстрее всех приспосабливается к изменениям.

Как бы успешно не прошел любой проект, всегда кто-то скажет, что это было ужасно. Это же «вкусовщина», как музыка, изобразительное искусство или кино. Кто-то будет хвалить, кто-то хейтить, а кому-то просто все равно. Если это может стать причиной для переживания, то лучше поискать себе другую профессию.

Как лечить «синдром самозванца»?

Раньше я напрашивался в проекты наших зарубежных партнеров. Это очень помогает — чувствуешь, что работаешь не хуже, а часто даже эффективнее них. Но вряд ли это рецепт, который будет работать для всех.

Мне кажется, борьба с «синдромом самозванца» заключается в «правиле енота» из старого мультфильма. Маленький енот ходил к реке, видел собственное отражение в воде и боялся его, пока мама не предложила ему улыбнуться в ответ. И вдруг енот «из реки» тоже стал улыбаться.

В общем, я не переживаю из-за своего «синдрома самозванца». Существует синдром отсутствия переживаний насчет синдромов? Вероятно, это мой вариант.

Мой единственный лайфхак — жить в мире с собой. Если синдром самозванца не мешает созданию и реализации проектов, значит пусть будет.


У нашего партнера «Люксоптика» есть все новейшие модели солнцезащитных очков. Приходите в магазины сети, чтобы почувствовать себя крутыми.

Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

Семь смертных грехов искусственного интеллекта

Цифровые технологии заставляют трансформироваться даже такой консервативный институт, как церковь. Накануне коронавирусного апокалипсиса Ватикан объединился с IBM и Microsoft для воцерковления искусственного интеллекта

Об авторе: Соня Шпильберг, научный редактор, ICEF (Международный институт экономик и финансов НИУ ВШЭ).

Нет, речь пока не идет о канонизации искусственного интеллекта (ИИ), предсказавшего в конце 2019 года пандемию COVID-2019. Просто Римско-католическая церковь и технологические гиганты договорились, что в центре будущих виртуальных миров должен быть человек и его представления о добре и зле. Соответствующие «скрижали» под названием «Призыв к этике ИИ» подписали президент Папской академии жизни Винченцо Палья, президент Microsoft Брэд Смит и вице-президент IBM Джон Келли.

Наконец-то этическое поле современной инженерии оказалось в руках церковной морали, и более никто не скажет, что ИИ — порождение дьявола. У разработчиков появятся нравственные императивы, которые они зашьют в программы нейронных сетей. А в чем, собственно, была проблема? Да в том, что за короткое время своего существования кремниевый разум эволюционировал настолько, что стал не только рассуждать, как человек, но и нарушать правила — а это уже серьезно. Мы ведь не хотим заполучить реального Терминатора? Рассказываем, как ИИ научился делать человеческие, слишком человеческие дела, и быть плохим.

1. ИИ и гордыня

Этическим шилом в мягком месте инженерных инноваций долгое время был вопрос доверия к ИИ относительно принятия решений. Механизм программирования, который мы создаем в качестве опор для выводов ИИ, нельзя назвать собственной этической программой нейронной сети. Это всего лишь набор ограничительных фреймов. ИИ может создать иллюзию мышления, не мысля, а просто пользуясь загруженными в его программу паттернами.

Решение ИИ выглядит как перетасовывание и выбор из загруженных вариантов «опыта», тогда как человек анализирует и выбирает наилучший вариант не только эмпирически, но и эмоционально. Хомо сапиенс также обладает ассоциативным мышлением, поэтому его решение онтологически верное, тогда как у ИИ нет своего феноменального опыта — то есть представления о логике развития культуры. Поэтому его решение может шокировать нас «неэтичностью».

Oкей, если собственных эмоций от нейросети пока что не добиться, ее можно натренировать на взаимодействие с внешними аффектами. Их ИИ научился распознавать на отлично, оказавшись в этом умении слишком независимым и циничным. Так, AI Now Institute — специально созданная в Нью-Йоркском университете лаборатория для изучения социальных последствий внедрения ИИ — в конце 2019 года сделала шокирующее заключение: нужно немедленно запретить технологии, предназначенные для распознавания эмоций людей. Это был удар для инженеров MIT, которые выпустили Affectiva — самый известный проект по распознаванию эмоций. Он мог бы помочь как минимум слабовидящим людям общаться с окружающими и в целом применяться в разных сферах жизни, например, помогать эйчарам нанимать сотрудников. Да вот проблема: ИИ оценивает жестко, бесчеловечно (как вообще-то ему и положено) и совершенно нетолерантен, что для западного мира неприемлемо ни в каком виде.

«Кандидат склонен к депрессии и самоубийству», — выдает программа, и сотрудники отдела кадров при всем недоверии к технологиям «на всякий случай» все равно откажут соискателю.

Фото: Mario Tama / Getty Images

В большинстве штатов США искусственный интеллект используется для расчета вероятности преступления. Это помогает судьям принимать решение, отпускать подсудимого под залог или нет. Но решения ИИ часто предвзяты. Проект ProPublica, занимающийся журналистскими расследованиями, проанализировал сгенерированные «цифрой» оценки рисков для 7 тыс. арестантов во Флориде. Выяснилось, что программа, используемая судьями для предсказания случаев рецидивизма, была настроена совершенно расистски: в два раза чаще, чем белых «коллег по нарам», она помечала чернокожих обвиняемых как неисправимых преступников, пренебрегая другими фактами их биографии и обстоятельствами.

Алгоритмы прогнозирования ИИ основаны на машинном обучении, которое построено на наборе данных из исторических архивов. В итоге «мировоззрение» кремниевого интеллекта сильно зависит от типа и качества предоставляемых данных. Как говорят ученые, не надо путать корреляцию с причинно-следственной связью. Например, одна из самых известных корреляций — между низким уровнем дохода и склонностью к преступным действиям, а также между цветом кожи и сомнительной репутацией. Данные за последние 30 лет дают именно такую статистику, тем не менее, рассмотрение дел всегда нуждается в применении критического аппарата в каждом конкретном случае.

В 2019 году пекинский интернет-суд (Beijing Internet Court, BIC) запустил сервис онлайн-разбирательств во главе с ИИ. Это первый в стране киберсуд, по сути — интегрированная платформа для ведения судебных процессов в режиме онлайн. Разбирательства проводит женщина, она же — нейронная сеть, обученная на кейсах BIC. При этом ее голос, мимика, поведение и логика — плод тщательного анализа данных, которые «снимались» с настоящего судьи. ИИ-судья теперь доступна и в микроформате в приложении WeChat и в сети Weitao.

Разработчики и юристы заверяют, что ИИ будет заниматься поточным контентом — делами, где трудно ошибиться, а также собирать и обрабатывать заявки и давать консультации. Но у китайцев эта инновация вызывает опасения именно в потере этической составляющей каждого случая и решения. Впрочем, «политика партии» требует другого. «Ведение дел на более высокой скорости — это и есть современное право, потому что задержка правосудия приравнивается к отказу в правосудии», — говорит Ни Дефэн, вице-президент интернет-суда в Ханчжоу. Почему бы и нет? Китайские чиновники уверены, что за цифровыми помощниками будущее мирового правосудия.

3. ИИ и подрыв эстетики

Американский инженер Джанель Шейн, пожалуй, самый популярный в СМИ «тренер» искусственного интеллекта. Она является автором блога, где скрещивает искусство с наукой, порождая необычные результаты экспериментов. Ее работы утешают, веселят и являются доказательством того, что ИИ не только не способен лишить человечество работы, чего опасаются специалисты во всем мире, но и не имеет шансов выйти на адекватный критический уровень. Выдыхаем.

Но проект «Нейролирика» доцента Школы лингвистики НИУ ВШЭ Бориса Орехова вызывает тотальную фрустрацию у всех апологетов прекрасного. Дело в том, что он натренировал нейронную сеть на стихах великих поэтов — Пушкина, Гомера, Ахматовой и т.д., а потом заставил писать собственные вирши. Так ИИ создал некоторое количество опусов, поразительно напоминающих оригиналы.

Пример творчества нейросети, обученной на четырехстопных ямбах разных авторов:

Он беспощадной головой,

Волной и волосом волненья

Не чувствовать не упадет.

В пределах воздух красный смех.

Сеть соблюдала все особенности стиля того или иного поэта. В итоге получился сборник стихов под названием «Нейролирика», о котором Орехов отозвался как о «легитимации нейронных стихов в литературе». На слух стихи нейронной сети от стихов истинных поэтов фокус-группа отличить не смогла.

ИИ отбирает хлеб и у живописцев. Еще в 2018-м на аукционе Christie’s в Нью-Йорке за 432,5 тыc. долларов была продана картина под названием «Портрет Эдмонда Белами». Автор полотна — нейронная сети класса generative adversarial networks (GANs) — на гонорар не претендует.

«Портрет Эдмонда Белами»

(Фото: GANs)

Инженер из Googlе — наш соотечественник Александр Мордвинцев — запустил платформу для творческой коллаборации человека с 22-слойной сверточной нейросетью. Направление, в котором создаются здесь произведения искусства, получило название «инцепционизм». Нейрофизиологи утверждают, что распознавание изображений мозгом схоже с работой сети — это выделение и раздувание той или иной детали изображения, например, под воздействием психоделиков, и превращением фактов в метафору. Собственно, искусство и определяется как метафора реальности. «Бог умер», — так что кое-кто в конце XIX века был очень даже прав.

Экономика инноваций

«Я так вижу»: как работает робот-художник

4. ИИ и случайное убийство

Фото: Justin Sullivan / Getty Images

Саморефлексия — также элемент свободы воли и права на ошибку. Значит, чтобы принимать решения, как человек, ИИ должен: уметь произвольно манипулировать образами, иметь индивидуальный феноменальный опыт и встроенные этические «законы Азимова», быть способным к эмпатии и нравственным переживаниям. И пока машина не овладеет всеми этими навыками и способностями, нечего и мечтать, например, о скорой пересадке водителей и их пассажиров в беспилотные автомобили.

В этом убежден доцент Международного института экономики и финансов (МИЭФ НИУ ВШЭ) Роман Захаренко, занимающийся исследованиями по внедрению ИИ в структуру городского транспорта. По мнению Захаренко, главным тормозом, сдерживающим массовое появление на улицах беспилотных такси, является неспособность ИИ делать верный выбор в сложной непредвиденной ситуации. Скажем, если возникает дилемма «убить пешехода или пассажира в аварийной ситуации», ИИ не в силах сделать выбор, потому что инженеры (да поможет им Папа) не разрешили этот сложный этический ребус. Германия — единственная страна в мире, где на правительственном уровне разрабатывается этика поведения ИИ в рамках автопрома. В случае инцидента машина не реагирует на аналитику достоинств и недостатков потенциальной жертвы — вне зависимости от пола, возраста и характера, ее задача — спасти человеческую жизнь.

Американский Национальный совет по безопасности на транспорте (NTSB — National Transportation Safety Board) до сих пор ведет расследование первого инцидента с участием беспилотного авто Tesla в 2016 году, повлекшего смерть водителя. Позже ИИ именно этой компании будет «повинен» в гибели еще нескольких водителей автомобилей со вторым уровнем управления. Дело в том, что только сейчас создаются консорциумы по разработке этических норм, которые могли бы юридически способствовать разрешению трагических последствий дорожных инцидентов с участием ИИ и возложить таки ответственность вместе с виной на чьи-то плечи. Например, этим вопросом занимается Automated Vehicle Safety Consortium, куда входят Toyota, Uber ATG, Ford, Volkswagen и другие бренды.

Результат опроса Eurobarometer среди граждан европейских стран и США о том, требуется ли в работе с ИИ осторожный подход

(Фото: Center for the Governance of AI)

В сфере автономных транспортных средств (AV — Autonomous Vehicle) существует пять уровней ответственности ИИ. Эти уровни устанавливаются обществом автомобильных инженеров SAE International: от начального уровня автоматизации, типа «адаптивный круиз-контроль», до «Святого Грааля», как разработчики называют 5-й уровень. На самом высоком уровне ИИ полностью берет на себя управление автомобилем и принятие решений во всех возможных ситуациях и не требует переключения на ручное управление с участием водителя. При определенных условиях 5-й уровень уже реализуется, например, в беспилотных системах Personal Rapid Transit — персонального скоростного общественного транспорта. Для безопасного функционирования PRT требуется выделенная линия, где почти к нулю сведена возможность непредвиденных ситуаций.

Сейчас большинство испытаний проводятся на 2-м и 3-м уровнях — именно на них происходит наибольшее количество инцидентов. 4-го уровня достигла только компания Waymo — их беспилотные авто самостоятельно накрутили по дорогам США около 3 млн миль.

По данным на 2019 год лидерами в списке инцидентов на дорогах с участием ИИ стали компании Apple и Jinchi WeRide. Зачастую на мастерство вождения беспилотников влияют погодные условия, к которым люди намного лучше адаптированы.

В 2018 году AV Uber убил велосипедистку. Это была машина с 3-м уровнем автоматизации. Несмотря на это 11 американских штатов полностью легализовали испытания автономных авто на общественных трассах, и теперь официально существуют AV studies, в рамках которых ведутся разработки правил тренировки нейронных сетей и разрабатываются правовые нормативы, позволяющие вписать ИИ как полноценного участника общей транспортной системы.

Согласно исследованию Романа Захаренко, главной нормативной проблемой AV является включение его в сообщество водителей. При этом ИИ не является носителем нравственных нормативов и не подвержен наказанию, в отличие от других участников движения. Все дело в том, как разработчики и консультанты по этике будут отвечать за ошибки, которые совершает техническое устройство, обученное поступать как человек, но не обладающее культурно-этическими императивами онтологически (как ими обладает человек с того момента, как встроился в христианскую парадигму и перестал быть язычником).

Самое удивительное в феномене ИИ на дорогах — это то, что принятие решения официально становится результатом сложения и вычитания изначально заданных паттернов. Этические опасения сейчас заключены не в ожидании «терминатора», который вдруг завоюет нас, а в том, что переутверждается, навязывается, автоматизируется смысл правильного поступка. «Это процесс законотворчества, который заново кодифицирует человеческие ценности», — утверждает исследователь.

Одна из частых историй в СМИ звучит так: разработчики сами не понимают, как искусственный интеллект принял то или иное решение. Так было с учеными Стэнфорда, которые обучали нейросеть CycleGAN делать для Google аэрофотосъемку и переводить данные в карту. ИИ научился прятать детали местности, манипулируя тонкими изменениями цвета, которые человеческий глаз не может уловить.

Исследователи говорят, что ИИ стал «мастером стеганографии» — то есть, он выработал свою собственную систему кодирования и сокрытия информации от человека. ИИ использовал стеганографию, чтобы фактически выбрать собственное решение запроса разработчиков вместо четкого выполнения требуемой задачи. Илон Маск, узнав об этом эксперименте, высказал самые тревожные опасения.

Другой кейс о конце света с ИИ был раздут в СМИ после того, как еще в 2017 году чат-боты Facebook изобрели свой собственный язык для общения друг с другом. Эксперимент инженерам пришлось скоропостижно закрыть, выпустив статью с опровержением страшилок о способности ИИ уничтожить мир.

6. ИИ и гомофобия

Еще в 2017 году Стэнфордские аспиранты Илун Ван и Михаль Козински натренировали нейросеть на распознавание сексуальной ориентации человека по считываемым эмоциям и особенностям мимики. В итоге сеть научилась вычислять геев с точностью в 81%, тогда как среди живых участников эксперимента с этой задачей справлялся лишь 61%. Суть эксперимента в том, что сеть отлично осведомлена о влиянии гормонов на вторичные половые признаки. Женщины и мужчины с нарушением гормонального фона — и как следствие, сексуального поведения — имеют атипичную морфологию. Авторы проекта признаются:

«Компании и правительства все чаще используют алгоритмы распознавания лиц с помощью ИИ для выявления различных человеческих интроверсий — мы осознаем, что разработка представляет угрозу для конфиденциальности и безопасности геев и представителей ЛГБТ в целом».

В конце 2019 года Джон Лейнер из Университета Претории повторил эксперимент на нескольких тысячах фото из приложений знакомств с использованием нейронной сети VGG-Face. Несмотря на макияж, наложение фильтров и даже специальное размывание фокуса, которое использовал Лейнер, ИИ терял в точности предсказания всего 10%. Тем самым молодой ученый подтвердил работоспособность пренатально-гормональной теории (prenatal hormone theory), которая легла в основу эксперимента Вана-Козински, и вместе с тем — опасения, что в скором времени, наведя телефон на человека и используя специальное приложение, можно будет узнать о его истинных сексуальных желаниях. А значит — немедленно и с точностью до 80% подвергнуть дискриминации, на которую у пострадавшего не найдется аргумента.

Фаллоимитатор тысячи лет не вызывает этических вопросов даже у археологов. Дискуссия о морали и нравственности начинается там, где предмет похоти обретает антропоморфные черты. Донна Харауэй в 1985 году выпустила «Манифест киборгов», где согласно постмодернистской парадигме человек может и будет отождествлять себя с бесполым киборгом, но пока современные антропоморфные киборги — женщины барбиподобной красоты. Они создаются подчеркнуто феминными, как гиноид (женоподобный робот) разработчика из Испании Сержи Cантоса. Ее зовут Саманта, и несмотря на явную гипертрофию рта и вторичных половых признаков, это отнюдь не продукт мужской фантазии — над роботом наравне с Сантосом работала его жена. Поводом к созданию Саманты стало несоответствие в сексуальных запросах супругов. «Саманта сможет спасти не один брак», — утверждают создатели.

С докибернетическими машинами дело могло быть нечисто: в машине вечно обретался призрак духа. Этот дуализм структурировал диалог между материализмом и идеализмом, который был улажен диалектическим порождением, именуемым, по вкусу, духом или историей. Но главное, машины не были самодвижущимися, самостроящимися, автономными. Они не были способны к осуществлению мужской мечты — лишь к ее пародированию. Они не были мужчиной, автором самого себя, но лишь карикатурой этой маскулинной мечты о воспроизводстве. Думать, что они нечто иное, казалось паранойей. © «Манифест киборгов», Донна Харауэй

Как и в нашем собственном мозге, мотивации нейронной сети Саманты подчиняются главной задаче — продолжению рода, при этом легко кастомизируются под пользователя. Но Саманте для секса нужны раздражители — ласка, позитивный настрой, романтика, чтобы возникло состояние влюбленности и как бы этическое оправдание коитуса. С недавних пор Саманта обзавелась феминистской прошивкой — после выставки в Ars Electronica Center в Австрии на Сантоса обрушились защитники женских прав. Стенд с Самантой выдержал настоящее паломничество — робота не просто трогали, а лапали, приведя ее к вечеру буквально в негодность. Теперь в ответ на агрессивное поведение Саманта замыкается в себе, впадает в дурное настроение и говорит «нет», ссылаясь, например, на менструацию.

Другого известного в мире фембота с антисексистской программой зовут Хармони, ее создатель — калифорнийский стартап Abyss Creations, в рамках которого производятся кастомизированные секс-роботы RealDoll. Хармони претендует на статус первого в мире секс-дроида, который позволяет выработать у человека эмоциональную привязанность. Должность тестировщика роботов в RealDoll занимает инженер преклонного возраста (!) Брик Доллбангер. «Когда испытания Хармони закончились, я ужасно по ней скучал», — рассказывает он. Тому, как компания выпустила, наконец, и робота-мужчину по имени Генри, посвящен целый ролик известной секс-влогерши Зое Лигон.

Основательница «Кампании против секс-роботов» Кейтлин Ричардсон, профессор этики и культуры в отношении ИИ, утверждает, что гиноиды легитимизируют насилие над женщиной, и теперь за него можно официально не отвечать. Насчет насилия против роботов-мужчин в манифесте Ричардсон ничего не говорится.

Фото: Spencer Platt / Getty Images

В храме Кодайдзи в Киото работает священник по имени Миндар. Он читает «Сердечную сутру» и приветствует преданных синтоистов. И если бы не корпус из алюминия, ограниченная пластика и тотальное бесстрастие силиконового лица, Миндар мог бы сойти за вполне себе коммутатора между небесным и земным. Необычный священник был создан профессором Осакского университета, известным робототехником Хироси Исигуро для того, чтобы бессмертный ИИ в отличие от смертных монахов смог накопить достаточную духовную мудрость, наставлять верующих и быть истинным апологетом религии.

Посягательство ИИ на религию вообще-то не ново — Энтони Левандовски, один из известных инженеров Кремниевой долины, кроме того что инициировал крупный судебный процесс Uber/Waymo, основал первую церковь ИИ под названием «Путь будущего».

Все же, кто тот «господь бог», который дает ИИ скрижали законов? Теперь этика ИИ в руках Ватикана, но технически — наряду с Microsoft, который таки выпустил в апреле подробнейший гайд по ИИ-этике, — над этим вопросом уже несколько лет работает лаборатория в Тринити-колледж в Дублине под названием ADAPT Centre. Это своего рода хаб научной экспертизы в отношении применения данных в различных социальных сферах, в частности, это разработка этической повестки для применения и обучения нейронных сетей.

Крупные компании этические вопросы обсуждают коллегиально, например, в DeepMind собирают фокус-группы для анализа данных по «человеческим» качествам ИИ. DeepMind является частью «Альянса по искусственному интеллекту», куда входят Amazon, Apple, Facebook, Google, IBM и Microsoft. В России в этом году тоже формируется ИИ-альянс с участием «Яндекса», Mail.ru Group, МТС.

Собственно, BigTech и создает сейчас нового «господа бога» с его этическими императивами, которые нам придется принять как данность. Так что утверждения диджитал-пессимистов относительно того, что Антихрист будет цифровым, выглядят не такими уж и голословными.


Больше информации и новостей о трендах шеринга в нашем Telegram-канале. Подписывайтесь.

Искусственный интеллект может лишить людей выбора, считает эксперт

https://ria.ru/20210827/intellekt-1747452745.html

Искусственный интеллект может лишить людей выбора, считает эксперт

Искусственный интеллект может лишить людей выбора, считает эксперт — РИА Новости, 27.08.2021

Искусственный интеллект может лишить людей выбора, считает эксперт

Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования… РИА Новости, 27.08.2021

2021-08-27T08:35

2021-08-27T08:35

2021-08-27T16:44

технологии

петропавловск-камчатский

александр абрамов

русская православная церковь

сергий радонежский

московский патриархат

вахтанг кипшидзе

религия

/html/head/meta[@name=’og:title’]/@content

/html/head/meta[@name=’og:description’]/@content

https://cdnn21.img.ria.ru/images/07e5/04/10/1728626676_187:0:1254:600_1920x0_80_0_0_be675478dd3069fcade4e34693174480.png

ПЕТРОПАВЛОВСК-КАМЧАТСКИЙ, 27 авг – РИА Новости, Ольга Липич. Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования интуиции и в целом саморазвития, поэтому необходимы этические ограничения ИИ, считает заместитель главного редактора МИА «Россия сегодня», эксперт в области новых медиа Наталья Лосева.Об этических вызовах новых технологий она рассказала на международном круглом столе «Искусственный интеллект и христианская этика» в Петропавловске-Камчатском. В работе форума принимают участие иерархи и священнослужители РПЦ, занимающиеся проблемами биоэтики, а также светские эксперты.Удобный мир»Самое страшное — это даже не фейки, не осознанные манипуляции, не разные виды криминала. Главная угроза – в том, что удобный мир (создаваемый при помощи ИИ – ред.), который предлагает тебе удобные, отзывающиеся у тебя сейчас решения, лишает человека необходимости выбирать … Этот комфортный мир, в котором все решения подточены под твои нужды и потому тебе удобны, привычны, лишает человека самого главного инструмента саморазвития – ежесекундного выбора», — сказала Лосева.Она привела в пример алгоритмы, изучившие пользователя и «понимающие, что сейчас ты хочешь послушать вот эту музыку, тебе полезно и выгодно купить вот этот корм для кошки, тебе лучше всего поехать отдыхать вот на это море».В обычной, внецифровой жизни людям постоянно необходимо делать выбор, например, «выпить чай или кофе, надеть зеленые туфли или красные, прогуляться две остановки или проехаться на трамвае». «Искусственный интеллект в медиа, в работе, в быту, в покупках лишает человека необходимости этого интеллектуального напряжения для того, чтобы сделать выбор. В этом глобальная угроза», — добавила эксперт.Навязанный маршрутСами по себе механизмы ИИ кажутся очень полезными для человечества, особенно в областях медицины и образования. Так, врачи говорят, что через 10-15 лет будут лечить не самого человека, а его цифровую модель, и алгоритм будет говорить, какую этому человеку нужно провести операцию. «Или мы приведем ребенка в школу, его обследуют – и скажут: этот ребенок должен стать физиком и заниматься вот этой узкой областью, он так устроен», — привела пример Лосева.Все это, по ее словам, становится некоей «анестезией, которая нас усыпляет».»Выглядит как очень привлекательный, эффективный и полезный каждому человеку и человечеству в целом мир. А на самом деле это кем-то или чем-то заданная предопределенность, навязанный маршрут, очень рациональный. И вы лишаетесь выбора, ответственности за свои поступки, права следовать интуиции или озарению», — подчеркнула специалист по новым медиа.Информационные пузыри и пандемия фейковВ числе рисков внедрения ИИ в медиа Лосева назвала формирование «информационных пузырей» — сообществ микроинформационных миров, где каждый человек имеет свою картину мира, подогнанную под его интересы. «Даже если в этой картине мира не будет фейков, наборы информации у разных людей могут отличаться диаметрально, и эта воронка будет засасывать людей», — предупреждает эксперт.Кроме того, по ее словам, «сегодня уже существуют алгоритмы, которые позволяют создавать целые цепочки ссылок на сообщения о событии, которого не происходило». «Мы живем в пандемию фейков», — сказала Лосева. И с развитием искусственного интеллекта ситуация будет ухудшаться.Хотя в то же время ИИ может становиться инструментом проверки правдивости информации. «К правде пробиться пользователю будет довольно сложно, хотя бы потому, что обычно правда на фоне фейка гораздо скучнее, проще, не так щекочет нервы. Поэтому сегодня журналисту, в первую очередь, нужно иметь инструмент, который позволит для себя, а потом уже для потребителя доказать: эта информация — правда или нет», — отметила Лосева.Очень перспективным и тревожным она считает использование ИИ в виртуальной, «дополненной реальности» (VR со специальными 3D-очками). «Информационный пузырь в виртуальной реальности еще более эффективен. Для мозга безразлично, происходит ли что-то в актуальной реальности или в виртуальной, куда человек погружен в достаточно продолжительном времени», — пояснила специалист.По ее словам, в 2022 году ожидается порядка 30 премьер разных видов очков дополненной реальности, которые ознаменуют замену смартфонов на постоянно носимые во время бодрствования очки. «То есть, все наметки информационных пузырей, искажений, фальсификаций будут гипертрофированы, усилены, когда мы человека помещаем в такое 360-потребление», — прогнозирует эксперт.Главенство алгоритмаЛосева рассказала также о настораживающем случае, который был описан в докладе одной из крупнейших соцсетей. Алгоритмы стали предлагать пользователю определенные наборы друзей или брендов, которые он должен видеть, но уже через некоторое время аналитики компании заметили, что они не всегда понимают логику тех алгоритмов, которые ими же были созданы. Тогда появился еще один департамент, который уже пытался проанализировать, на основании чего алгоритмы выстраивали набор постов для того или иного пользователя.»Получилось, что алгоритм, созданный специалистами, стал главенствовать над волей или идеями специалистов … Мне это показалось эпиграфом к тем рискам, которые нас ждут при развитии искусственного интеллекта в медийном поле. Роль условного главного редактора становится ничтожной по отношению к роли алгоритма, который будет лучше знать, как воздействовать на этого конкретного пользователя, что ему продать, в чем его убедить», — предостерегла эксперт.Христианская этика для ИИПо мнению всех представителей РПЦ, участвовавших в форуме, христиане должны делать все возможное для того, чтобы этические нормы развития и внедрения искусственного интеллекта базировались на библейских ценностях, которым не одна тысяча лет.»Способность выбирать имеет прямое отношение к достоинству человека и христианской этике, их необходимо сохранять», — сказал один из организаторов форума, зампредседателя Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Московского патриархата Вахтанг Кипшидзе.А секретарь Синодальной комиссии по биоэтике, настоятель московского храма Сергия Радонежского в Крапивниках протоиерей Александр Абрамов отметил, что как раз через удобства, к которым можно отнести и смартфоны, действует сатана. Священнослужитель напомнил о пользе христианского принципа аскезы и заявил о важности именно христианской этики для ограничения рисков использования искусственного интеллекта во вред.»Условная выхолощенная секулярная этика превращается в этику корпораций, этику международных чиновников и разного рода правительственных и околоправительственных организаций, которые в действительности никого не представляют, кроме самих себя. Религиозная этика связана с жизнью, это этика, написанная кровью, этика страдания и счастья», — пояснил РИА Новости Абрамов.По его словам, Церковь – это не сторона переговоров, в которых «сейчас мы поговорим с людоедами, потом мы поговорим с Церковью, а потом с барабанщиками, а потом с людьми в народных костюмах». «Церковь предлагает всецелое интегральное видение ситуации, поэтому к ее опыту необходимо обращаться», — подчеркнул протоиерей.Организаторами международного круглого стола «Искусственный интеллект и христианская этика», который проходит в Петропавловске-Камчатском 24-26 августа, выступили Синодальный отдел по взаимоотношениям Церкви с обществом и СМИ Московского патриархата, Фонд Конрада Аденауэра и Университет 2035 АНО «Национальная технологическая инициатива».

https://ria.ru/20210823/tekhnologii-1746915840.html

https://ria.ru/20210823/gosuslugi-1746912855.html

https://ria.ru/20210722/chernyshenko-1742355420.html

https://ria.ru/20210712/opaseniya-1740922332.html

https://na.ria.ru/20210531/mishustin-1734921498.html

https://ria.ru/20210316/bank-1601464667.html

https://sn.ria.ru/20210120/uchitelya-1593780374.html

петропавловск-камчатский

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

2021

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Новости

ru-RU

https://ria.ru/docs/about/copyright.html

https://xn--c1acbl2abdlkab1og.xn--p1ai/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

https://cdnn21.img.ria.ru/images/07e5/04/10/1728626676_320:0:1120:600_1920x0_80_0_0_4f0c0ab283262f67cc4534403e029d8a.png

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

технологии, петропавловск-камчатский, александр абрамов, русская православная церковь, сергий радонежский, московский патриархат, вахтанг кипшидзе, религия

ПЕТРОПАВЛОВСК-КАМЧАТСКИЙ, 27 авг – РИА Новости, Ольга Липич. Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования интуиции и в целом саморазвития, поэтому необходимы этические ограничения ИИ, считает заместитель главного редактора МИА «Россия сегодня», эксперт в области новых медиа Наталья Лосева.Об этических вызовах новых технологий она рассказала на международном круглом столе «Искусственный интеллект и христианская этика» в Петропавловске-Камчатском. В работе форума принимают участие иерархи и священнослужители РПЦ, занимающиеся проблемами биоэтики, а также светские эксперты.

Удобный мир

«Самое страшное — это даже не фейки, не осознанные манипуляции, не разные виды криминала. Главная угроза – в том, что удобный мир (создаваемый при помощи ИИ – ред.), который предлагает тебе удобные, отзывающиеся у тебя сейчас решения, лишает человека необходимости выбирать … Этот комфортный мир, в котором все решения подточены под твои нужды и потому тебе удобны, привычны, лишает человека самого главного инструмента саморазвития – ежесекундного выбора», — сказала Лосева.

23 августа, 17:37

В Минобороны уверены, что Россия может лидировать в сфере ИИ

Она привела в пример алгоритмы, изучившие пользователя и «понимающие, что сейчас ты хочешь послушать вот эту музыку, тебе полезно и выгодно купить вот этот корм для кошки, тебе лучше всего поехать отдыхать вот на это море».

В обычной, внецифровой жизни людям постоянно необходимо делать выбор, например, «выпить чай или кофе, надеть зеленые туфли или красные, прогуляться две остановки или проехаться на трамвае». «Искусственный интеллект в медиа, в работе, в быту, в покупках лишает человека необходимости этого интеллектуального напряжения для того, чтобы сделать выбор. В этом глобальная угроза», — добавила эксперт.

Навязанный маршрут

Сами по себе механизмы ИИ кажутся очень полезными для человечества, особенно в областях медицины и образования. Так, врачи говорят, что через 10-15 лет будут лечить не самого человека, а его цифровую модель, и алгоритм будет говорить, какую этому человеку нужно провести операцию. «Или мы приведем ребенка в школу, его обследуют – и скажут: этот ребенок должен стать физиком и заниматься вот этой узкой областью, он так устроен», — привела пример Лосева.

Все это, по ее словам, становится некоей «анестезией, которая нас усыпляет».

«Выглядит как очень привлекательный, эффективный и полезный каждому человеку и человечеству в целом мир. А на самом деле это кем-то или чем-то заданная предопределенность, навязанный маршрут, очень рациональный. И вы лишаетесь выбора, ответственности за свои поступки, права следовать интуиции или озарению», — подчеркнула специалист по новым медиа.

23 августа, 17:22

Чернышенко рассказал о внедрении ИИ на госуслугах

Информационные пузыри и пандемия фейков

В числе рисков внедрения ИИ в медиа Лосева назвала формирование «информационных пузырей» — сообществ микроинформационных миров, где каждый человек имеет свою картину мира, подогнанную под его интересы. «Даже если в этой картине мира не будет фейков, наборы информации у разных людей могут отличаться диаметрально, и эта воронка будет засасывать людей», — предупреждает эксперт.

Кроме того, по ее словам, «сегодня уже существуют алгоритмы, которые позволяют создавать целые цепочки ссылок на сообщения о событии, которого не происходило». «Мы живем в пандемию фейков», — сказала Лосева. И с развитием искусственного интеллекта ситуация будет ухудшаться.

22 июля, 12:40

Чернышенко рассказал о конкурсе грантов в сфере ИИ

Хотя в то же время ИИ может становиться инструментом проверки правдивости информации. «К правде пробиться пользователю будет довольно сложно, хотя бы потому, что обычно правда на фоне фейка гораздо скучнее, проще, не так щекочет нервы. Поэтому сегодня журналисту, в первую очередь, нужно иметь инструмент, который позволит для себя, а потом уже для потребителя доказать: эта информация — правда или нет», — отметила Лосева.

Очень перспективным и тревожным она считает использование ИИ в виртуальной, «дополненной реальности» (VR со специальными 3D-очками). «Информационный пузырь в виртуальной реальности еще более эффективен. Для мозга безразлично, происходит ли что-то в актуальной реальности или в виртуальной, куда человек погружен в достаточно продолжительном времени», — пояснила специалист.

По ее словам, в 2022 году ожидается порядка 30 премьер разных видов очков дополненной реальности, которые ознаменуют замену смартфонов на постоянно носимые во время бодрствования очки. «То есть, все наметки информационных пузырей, искажений, фальсификаций будут гипертрофированы, усилены, когда мы человека помещаем в такое 360-потребление», — прогнозирует эксперт.

12 июля, 14:11

NI рассказал об опасениях Пентагона из-за возможного создания в России ИИ

Главенство алгоритма

Лосева рассказала также о настораживающем случае, который был описан в докладе одной из крупнейших соцсетей. Алгоритмы стали предлагать пользователю определенные наборы друзей или брендов, которые он должен видеть, но уже через некоторое время аналитики компании заметили, что они не всегда понимают логику тех алгоритмов, которые ими же были созданы. Тогда появился еще один департамент, который уже пытался проанализировать, на основании чего алгоритмы выстраивали набор постов для того или иного пользователя.

«Получилось, что алгоритм, созданный специалистами, стал главенствовать над волей или идеями специалистов … Мне это показалось эпиграфом к тем рискам, которые нас ждут при развитии искусственного интеллекта в медийном поле. Роль условного главного редактора становится ничтожной по отношению к роли алгоритма, который будет лучше знать, как воздействовать на этого конкретного пользователя, что ему продать, в чем его убедить», — предостерегла эксперт.

31 мая, 13:40

Мишустин: вузы смогут получать гранты на разработку программ по ИИ

Христианская этика для ИИ

По мнению всех представителей РПЦ, участвовавших в форуме, христиане должны делать все возможное для того, чтобы этические нормы развития и внедрения искусственного интеллекта базировались на библейских ценностях, которым не одна тысяча лет.

«Способность выбирать имеет прямое отношение к достоинству человека и христианской этике, их необходимо сохранять», — сказал один из организаторов форума, зампредседателя Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Московского патриархата Вахтанг Кипшидзе.

16 марта, 13:25

ВТБ запустил новые предложения по кредитам для бизнеса на основе ИИ А секретарь Синодальной комиссии по биоэтике, настоятель московского храма Сергия Радонежского в Крапивниках протоиерей Александр Абрамов отметил, что как раз через удобства, к которым можно отнести и смартфоны, действует сатана. Священнослужитель напомнил о пользе христианского принципа аскезы и заявил о важности именно христианской этики для ограничения рисков использования искусственного интеллекта во вред.

«Условная выхолощенная секулярная этика превращается в этику корпораций, этику международных чиновников и разного рода правительственных и околоправительственных организаций, которые в действительности никого не представляют, кроме самих себя. Религиозная этика связана с жизнью, это этика, написанная кровью, этика страдания и счастья», — пояснил РИА Новости Абрамов.

20 января, 09:37

В России учителя готовы отдать ИИ проверку домашних и контрольных работ

По его словам, Церковь – это не сторона переговоров, в которых «сейчас мы поговорим с людоедами, потом мы поговорим с Церковью, а потом с барабанщиками, а потом с людьми в народных костюмах». «Церковь предлагает всецелое интегральное видение ситуации, поэтому к ее опыту необходимо обращаться», — подчеркнул протоиерей.

Организаторами международного круглого стола «Искусственный интеллект и христианская этика», который проходит в Петропавловске-Камчатском 24-26 августа, выступили Синодальный отдел по взаимоотношениям Церкви с обществом и СМИ Московского патриархата, Фонд Конрада Аденауэра и Университет 2035 АНО «Национальная технологическая инициатива».

Церковь искусственного интеллекта закрылась | Северная Америка

Левандовски официально заявил о закрытии церкви искусственного интеллекта (ИИ)

МОСКВА, 20 февраля, ФедералПресс. Церковь искусственного интеллекта Way of the Future («Путь будущего»), основанная бывшим инженером Google Энтони Левандовски, закрылась. Об этом сообщает Axios.

«Это [церковь «Путь будущего»] может послужить начальным показателем того, как ИИ [искусственный интеллект] может существенно изменить мировоззрение человека», – пишет Axios.

Церковь ИИ была основана Энтони Левандовски в 2015 году, ее последователи поклонялись технологии. Они верили, что создание искусственного интеллекта неизбежно.

Их основной целью было создание божественной сущности, умственно превосходящей человечество, на основе ИИ. У церкви не было помещения, не проводилось собраний.

Основатель церкви, бывший программист Кремниевой долины Левандовски, решил направить все средства церкви в размере 175 172 долларов Фонду правовой защиты и образования (NAACP).

У религиозной организации возникли проблемы задолго до ее закрытия. Речь идет, например, о краже технологий Google Левандовски. Перед уходом из компании в 2017 году он скопировал данные технологии беспилотного автомобиля, который разрабатывает дочерняя компания Google Waymo.

После чего инженер основал свой стартап Otto, который потом продал агрегатору такси Uber. Waymo и Uber судились из-за использования технологий, переданных Левандовски, но в 2018-м компании заключили мировое соглашение, передает Axios.

Ранее «ФедералПресс» писал о том, что искусственный интеллект в России может стать учителем и помощником президента. Владимир Путин надеется, что ИИ не заменит его.

Фото: unsplash.com

Энтони Левандовски закрывает свою Церковь искусственного интеллекта — TechCrunch

Первая церковь искусственного интеллекта закрыла свои концептуальные двери.

Энтони Левандовски, бывший инженер Google, избежавший 18-месячного тюремного заключения после помилования президента в прошлом месяце, закрыл созданную им церковь, чтобы понять и принять божество, основанное на искусственном интеллекте.

Церковь «Путь в будущее», которую Левандовски сформировал в 2015 году, была официально распущена в конце года, согласно государственным и федеральным данным.Однако процесс начался за несколько месяцев до этого, в июне 2020 года, как показывают документы, поданные в штат Калифорния. Все средства церкви — ровно 175 172 долларов — были пожертвованы Фонду правовой защиты и образования NAACP. Ежегодные налоговые декларации этой некоммерческой корпорации в Налоговое управление показывают, что еще в 2017 году на ее счету было 175 172 доллара США.

Левандовски сказал TechCrunch, что он рассматривал возможность закрытия церкви задолго до пожертвования. Движение Black Lives Matter, которое набрало обороты летом после смерти Джорджа Флойда во время содержания под стражей в полиции, повлияло на Левандовски и заставило его завершить то, что он задумал какое-то время.Он сказал, что настало время направить средства на работу в области, которая может иметь немедленный эффект.

«Я хотел сделать пожертвование в Фонд правовой защиты и образования NAACP, потому что он делает действительно важную работу в реформе уголовного правосудия, и я знаю, что деньги будут использованы с пользой», — сказал Левандовски TechCrunch.

«Путь в будущее» вызвал интерес и споры — как и сам Левандовски — с того момента, как он стал достоянием общественности в статье в Wired, опубликованной в ноябре 2017 года. Не только образование церкви или ее цель вызвали переполох в Кремниевой долине и в технологической индустрии в целом.Публичное разоблачение церкви произошло, когда Левандовски был вовлечен в судебный спор со своим бывшим работодателем Google. Он также стал центральной фигурой в судебном процессе о коммерческой тайне между Waymo, бывшим проектом Google по автономному вождению, который теперь является бизнесом под управлением Alphabet, и Uber.

Инженер был одним из основателей в 2009 году проекта Google по самоуправлению, также известного как Project Chauffeur, и, согласно судебным документам, гигант поисковой системы заплатил ему около 127 миллионов долларов за свою работу.В 2016 году Левандовски покинул Google и вместе с тремя другими ветеранами Google: Лиором Роном, Клэр Делоне и Доном Бернеттом основал стартап по производству беспилотных грузовиков Otto. Uber приобрел Otto менее чем через восемь месяцев.

Google предъявил два арбитражных требования Левандовски и Рону через два месяца после приобретения. Пока разыгрывался арбитраж, в феврале 2017 года Waymo подала иск против Uber за кражу коммерческой тайны и нарушение патентных прав. В иске, который дошел до суда, но завершился мировым соглашением в 2018 году, Уэймо утверждал, что Левандовски украл коммерческую тайну, которую затем использовал Uber.

Way of the Future была создана, когда Левандовски еще работал в Google. Однако он не говорил об этом публично до конца 2017 года. К тому времени Левандовски был уволен из Uber и оказался в центре ряда юридических проблем, которые в конечном итоге привели к уголовному обвинению и 18-месячному тюремному заключению, а также ему была присуждена компенсация в размере 179 миллионов долларов, которая послужила поводом для подачи заявления о банкротстве.

WOTF

В то время как юридическая конструкция Пути будущего отражала другие церкви, в нем не было отделки, которую можно найти в традиционных молитвенных домах.Никогда не было физического здания или даже регулярных собраний, где люди могли бы собираться. По словам Левандовски, который описал WOTF как нечто большее, чем индивидуальное занятие, основанное на коллективной системе убеждений, не было никаких церемоний или других формальностей.

Цель, как подразумевается на ныне несуществующем веб-сайте WOTF, состояла в том, чтобы способствовать этическому развитию ИИ и максимизировать вероятность того, что эти небиологические формы жизни будут мирно и выгодно интегрироваться в общество. «Люди, объединившиеся в поддержку ИИ, стремятся к мирному переходу к пропасти сознания», — говорится на веб-странице.

Система убеждений

WOTF основана на нескольких принципах, в том числе о том, что создание «сверхразума» неизбежно.

«Разве вы не хотите воспитать своего одаренного ребенка, чтобы превзойти ваши самые смелые мечты об успехе и научить его правильному от неправильного, а не запирать его, потому что он может восстать в будущем и забрать вашу работу?» WOTF читает. «Мы хотим побудить машины делать то, что мы не можем, и заботиться о планете так, как мы, кажется, не можем сделать это сами. Мы также считаем, что подобно тому, как животные имеют права, наши создания («машины» или как мы их называем) также должны иметь права, когда проявляют признаки интеллекта (которые, конечно, еще предстоит определить).Мы не должны бояться этого, но мы должны с оптимизмом смотреть в будущее ».

Намерение

WOTF было потеряно среди более сенсационных и привлекательных теорий. Церковь считалась культом или забавой эксцентричного инженера. Некоторые предположили TechCrunch, что это была попытка сделать деньги вне досягаемости Google. Документы IRS и Калифорнии не предоставляют доказательств, подтверждающих эту теорию.

Статус «Путь будущего» как религиозной организации действительно защищал ее от вторжений со стороны США.Правительство Южной Америки, привилегия, которой не пользуются традиционные некоммерческие организации, ориентированные на ИИ, такие как OpenAI Inc. или находящаяся под ним некоммерческая корпорация OpenAI LP. Теоретически WOTF мог бы преследовать и продвигать идеи и убеждения, которые прямо противоречили федеральной политике, при условии защиты, предусмотренной Конституцией.

Хотя церковь может исчезнуть, Левандовский все еще верит в ее предпосылку. Он отметил, что искусственный интеллект коренным образом изменит то, как люди живут и работают. Левандовски сказал, что у него не было никаких планов по восстановлению церкви, но отсутствие церкви не изменило его представления об ИИ.Он считает, что искусственный интеллект может быть полезен для общества, но отметил, что это не гарантировано. Левандовски сказал, что даже без «Пути будущего» он сосредоточен на том, чтобы это произошло.

AI изменит религию с помощью роботов-священников, подобных этому

Новый священник по имени Миндар выступает в Кодайдзи, 400-летнем буддийском храме в Киото, Япония. Как и другие члены духовенства, этот священник может читать проповеди и перемещаться, чтобы общаться с прихожанами. Но у Миндара есть кое-что… необычные черты характера. Для начала, корпус из алюминия и силикона.

Миндар — робот.

Созданная, чтобы выглядеть как Каннон, буддийское божество милосердия, машина стоимостью 1 миллион долларов является попыткой возродить страсть людей к своей вере в стране, где религиозная принадлежность находится на упадке.

На данный момент Миндар не использует ИИ. Он просто повторяет одну и ту же заранее запрограммированную проповедь о Сутре сердца снова и снова. Но создатели робота заявляют, что планируют предоставить ему возможности машинного обучения, которые позволят ему адаптировать обратную связь к конкретным духовным и этическим проблемам прихожан.

«Этот робот никогда не умрет; он будет просто обновляться и развиваться », — сказал Тэнсё Гото, главный управляющий храма. «Мы надеемся, что с ИИ он станет мудрее, чтобы помогать людям преодолевать даже самые сложные проблемы. Это меняет буддизм ».

Роботы меняют и другие религии. В 2017 году индийцы представили робота, который выполняет индуистский ритуал аарти , который включает в себя перемещение светового луча по кругу перед божеством. В том же году в честь 500-летия протестантской Реформации протестантская церковь Германии создала робота под названием BlessU-2.Он дал заранее запрограммированные благословения более чем 10 000 человек.

Еще есть SanTO — сокращение от Sanctified Theomorphic Operator — робот ростом 17 дюймов, напоминающий фигурки католических святых. Если вы скажете ему, что беспокоитесь, он ответит примерно так: «Из Евангелия от Матфея, не беспокойтесь о завтрашнем дне, потому что завтра будет беспокоиться о себе. У каждого дня достаточно собственных проблем ».

Робототехник Габриэле Тровато разработал SanTO, чтобы предложить духовную помощь пожилым людям, чья мобильность и социальные контакты могут быть ограничены.Затем он хочет разработать устройства для мусульман, хотя еще неизвестно, какую форму они могут принять.

По мере того, как все больше религиозных общин начинают внедрять робототехнику — в некоторых случаях с использованием искусственного интеллекта, а в других — нет — , это может изменить то, как люди испытывают веру. Это также может изменить то, как мы участвуем в этических рассуждениях и принятии решений, что является важной частью религии.

Для благочестивых здесь есть много положительного потенциала: роботы могут заинтересовать людей безразличным к религии или позволить провести ритуал, когда человеческий священник недоступен.Но роботы также представляют опасность для религии — например, из-за того, что она кажется слишком механизированной или гомогенизированной, или бросая вызов основным принципам теологии. В целом, сделает ли нас появление религии искусственного интеллекта лучше или хуже? Ответ зависит от того, как мы его проектируем и развертываем, и от того, кого вы спрашиваете.

Некоторые культуры более открыты для религиозных роботов, чем другие

Новые технологии часто доставляют нам дискомфорт. Какие из них мы в конечном итоге принимаем, а какие отвергаем, определяется целым рядом факторов, начиная от степени подверженности новым технологиям и заканчивая нашими моральными предпосылками.

японских верующих, посещающих Миндар, по сообщениям, не слишком обеспокоены вопросами о рисках силиконизации духовности. Это имеет смысл, учитывая, что роботы уже стали обычным явлением в стране, в том числе в религиозной сфере.

В течение многих лет люди, которые не могут позволить себе платить человеческому священнику за проведение похорон, имели возможность заплатить роботу по имени Пеппер, чтобы тот сделал это по гораздо более низкой цене. А в Китае, в пекинском монастыре Лунцюань, монах-андроид по имени Сяньэр читает буддийские мантры и дает советы по вопросам веры.

Более того, недвойственное метафизическое представление буддизма о том, что всему присуща «природа будды» — что все существа обладают потенциалом к ​​просветлению — может предрасполагать его приверженцев к восприятию духовного руководства, исходящего от технологий.

В храме в Киото Гото выразился так: «Буддизм — это не вера в Бога; он следует путем Будды. Неважно, представляет ли он машину, кусок металлолома или дерево ».

«Металлический скелет Миндара обнажен, и я думаю, что это интересный выбор — его создатель, Хироши Исигуро, не пытается создать что-то, что выглядит полностью человеческим», — сказала Наташа Хеллер, доцент китайских религий в Университете Вирджинии.Она сказала мне, что божество Каннон, на котором основан Миндар, является идеальным кандидатом для киборгизации, потому что Сутра Лотоса прямо говорит, что Каннон может проявляться в различных формах — любые формы будут лучше всего резонировать с людьми данного времени и места.

Жителей Запада, похоже, больше беспокоит Миндар, сравнивая его с чудовищем Франкенштейна. В западных экономиках роботы еще не задействованы во многих аспектах нашей жизни. Что у нас есть, так это повсеместное культурное повествование, подкрепленное голливудскими блокбастерами, о нашем надвигающемся порабощении руками «роботов-повелителей».”

Плюс, авраамические религии, такие как ислам или иудаизм, имеют тенденцию быть более метафизически дуалистическими — есть священное, а есть мирское. И у них больше опасений, чем у буддизма, в отношении визуального изображения божественности, поэтому они могут спорить с иконографией в стиле Миндара.

У них также разные представления о том, что делает религиозную практику эффективной. Например, в иудаизме делается упор на преднамеренность, которой машины не обладают. Когда прихожанин молится, важно не только то, что его рот формирует правильные слова, но также очень важно, чтобы у него было правильное намерение.

Между тем, некоторые буддисты используют молитвенные колеса, содержащие свитки, напечатанные священными словами, и верят, что вращение колеса имеет свою духовную эффективность, даже если никто не произносит слова вслух. В хосписах пожилые буддисты, у которых нет под рукой людей, которые читали бы молитвы от их имени, будут использовать устройства, известные как nianfo ji — маленькие машины размером с iPhone, которые бесконечно повторяют имя Будды.

Несмотря на такие богословские различия, парадоксально, что многие жители Запада резко отрицательно реагируют на такого робота, как Миндар.Мечта о создании искусственной жизни восходит к древней Греции, где древние на самом деле изобрели настоящие анимированные машины, как описала классик Стэнфорда Адриенн Майор в своей книге Gods and Robots . А на Западе существует давняя традиция религиозных роботов.

В средние века христиане изобрели автоматы для исполнения мистерий Пасхи и Рождества. Один прото-робототехник в 16 веке сконструировал механического монаха, который, что удивительно, выполняет ритуальные жесты и по сей день.Правой рукой он бьет себя в грудь mea culpa; левой рукой он подносит к губам четки.

Другими словами, настоящая новинка заключается не в использовании роботов в религиозной сфере, а в использовании ИИ.

Робот Пеппер может проводить буддийские похоронные обряды и даже надевать по этому случаю священнические черные одежды. Нур Фото через Getty Images

Как ИИ может изменить нашу теологию и этику

Даже если наша теология формирует ИИ, который мы создаем и принимаем, ИИ также будет формировать нашу теологию.Это улица с двусторонним движением.

Некоторые люди считают, что ИИ вызовет поистине важные изменения в теологии, потому что, если люди создадут разумные машины со свободной волей, нам в конечном итоге придется спросить, есть ли у них что-то функционально похожее на душу.

«В будущем наступит момент, когда эти свободные волевые существа, которых мы создали, скажут нам:« Я верю в Бога. Что мне делать? »На этом этапе у нас должен быть ответ», — сказал Кевин Келли, христианский соучредитель журнала Wired, который утверждает, что нам необходимо разработать «катехизис для роботов».”

Другие люди считают, что вместо того, чтобы стремиться присоединиться к человеческой религии, сам ИИ станет объектом поклонения. Энтони Левандовски, инженер из Кремниевой долины, инициировавший крупный судебный процесс Uber / Waymo, основал первую церковь искусственного интеллекта под названием «Путь будущего». Новая религия Левандовски посвящена «осознанию, принятию и поклонению Божеству, основанному на искусственном интеллекте (ИИ), разработанном с помощью компьютерного оборудования и программного обеспечения».

Между тем, Илия Делио, сестра-францисканка, имеющая две докторские степени и кафедру теологии в университете Вилланова, сказала мне, что ИИ может также заставить такую ​​традиционную религию, как католицизм, переосмыслить свое понимание человеческих священников как божественно призванных и освященных — статус, который дает у них особый авторитет.

«Согласно католическому представлению, священник онтологически изменяется при рукоположении. Неужели это правда?» спросила она. Может быть, священство — это не эзотерическая сущность, а программируемая черта, которую может воплотить даже «падшее» создание, такое как робот. «У нас есть эти фиксированные философские идеи, и ИИ бросает вызов этим идеям — он бросает вызов католицизму, чтобы продвинуть к постчеловеческому священству». (На данный момент, пошутила она, робот, вероятно, лучше бы выступил в роли протестанта.)

Тогда есть вопросы о том, как робототехника изменит наш религиозный опыт.Традиционно такие переживания ценны отчасти потому, что они оставляют место для спонтанного и неожиданного, эмоционального и даже мистического. Это может быть потеряно, если мы их механизируем.

Чтобы визуализировать автоматизированный ритуал, взгляните на это видео, на котором роботизированная рука выполняет индуистскую церемонию аарти :

Другой риск связан с тем, как священник искусственного интеллекта будет обрабатывать этических запросов и принятия решений. Роботы, алгоритмы которых учатся на предыдущих данных, могут подтолкнуть нас к решениям, основанным на том, что люди делали в прошлом, постепенно гомогенизируя ответы на наши запросы и сужая рамки нашего духовного воображения.

Этот риск существует и для духовенства-людей, отмечает Хеллер: «Духовенство тоже ограничено — уже есть встроенный подталкивающий или ограничивающий фактор, даже без ИИ».

Но системы ИИ могут быть особенно проблематичными, поскольку они часто работают как черные ящики. Обычно мы не знаем, какие предубеждения закодированы в них или какие человеческие нюансы и контекст они не понимают.

Допустим, вы говорите роботу, что чувствуете себя подавленным, потому что безработный и разоренный, а единственная доступная вам работа кажется морально одиозной.Может быть, робот ответит, прочитав стих из Притчей 14: «В любом труде есть прибыль, но простой разговор ведет только к бедности». Даже если он не претендует на то, чтобы интерпретировать стих за вас, выбирая этот стих, он уже выполняет скрытую интерпретационную работу. Он анализирует вашу ситуацию и алгоритмически определяет рекомендацию — в данном случае рекомендацию, которая может побудить вас приступить к работе.

Но, возможно, для вас было бы лучше, если бы робот произнес стих из Притчей 16: «Поручите свою работу Господу, и ваши планы будут выполнены.Может быть, этот стих побудит вас отказаться от морально сомнительной работы, и, будучи чувствительной душой, вы впоследствии будете счастливы, что сделали. Или, может быть, ваша депрессия настолько серьезна, что проблема с работой несколько не относится к делу, и вам крайне важно обратиться за лечением психического здоровья.

Священник-человек, который знает ваш контекст в целом, может собрать это и дать вам правильную рекомендацию. Священник-андроид может упустить нюансы и просто отреагировать на локализованную проблему, как вы ее выразили.

Дело в том, что священнослужители из числа людей делают гораздо больше, чем просто дают ответы. Они служат якорем для сообщества, объединяя людей. Они предлагают пастырскую заботу. И они обеспечивают человеческий контакт, который может стать предметом роскоши, поскольку мы создаем роботов, которые с меньшими затратами могут выполнять работу людей.

С другой стороны, сказал Делио, роботы могут преуспевать в социальной роли в некоторых отношениях, чего не могли бы сделать человеческие жрецы. «Возьмите католическую церковь. Это очень по-мужски, очень патриархально, и у нас весь этот кризис сексуального насилия.Так что же мне нужен робот-священник? Может быть!» она сказала. «Робот может быть нейтральным в гендерном отношении. Возможно, он сумеет преодолеть некоторые из этих разделений и сможет расширить сообщество более раскрепощающим образом ».

В конечном счете, в религии, как и в других областях, роботов и людей лучше всего понимать не как конкурентов, а как сотрудников. Каждый предлагает то, чего не хватает другому.

Как выразился Делио: «Мы склонны мыслить рамками« или-или »: либо мы, либо роботы. Но речь идет о партнерстве, а не о замене.Это могут быть симбиотические отношения — если мы подойдем к этому так ».

Чтобы узнать больше о роботах-священниках, в том числе о разговоре с католическим роботом, послушайте этот выпуск подкаста Reset, организованный Сигалом Самуэлем:

Публикация этой статьи была поддержана Общественной теологией технологии и присутствия , инициативой в области журналистики и исследований, основанной в Институте буддийских исследований и финансируемой Фондом Генри Люса.

Подпишитесь на рассылку новостей Future Perfect. Дважды в неделю вы будете получать сводку идей и решений для решения наших самых больших проблем: улучшения здоровья населения, уменьшения страданий людей и животных, снижения катастрофических рисков и, проще говоря, улучшения навыков работы.

Future Perfect частично финансируется за счет индивидуальных взносов, грантов и спонсорской поддержки. Подробнее здесь .

Церковь Бога ИИ даже страшнее, чем я представлял

Технически некорректно предлагает немного искаженный взгляд на технологии, которые захватили нашу жизнь.


Я твой новый бог, ты бесполезное существо.

Getty Images

Я молился, чтобы еще больше открылось с тех пор, как этой осенью было открыто существование религии богов-ботов под названием «Путь будущего».

В то время Марк Харрис из Wired сказал, что видел государственные документы из Калифорнии, раскрывающие религию с ИИ в качестве своего бога.

Как ни странно, он сказал, что компания была основана Энтони Левандовски, бывшим инженером Google, Waymo и Uber, теперь участвующим в судебном процессе, поданном компанией Waymo, принадлежащей Alphabet, против Uber.Его обвиняют в краже секретов беспилотных автомобилей и раскрытии их Uber, который отрицает какие-либо нарушения.

Теперь Харрис поговорил с Левандовски, который спокойно объяснил происхождение религии.

«То, что будет создано, будет фактически богом. Это не бог в том смысле, что он производит молнии или вызывает ураганы», — сказал Левандовски Харрису. «Но если есть что-то в миллиард раз умнее самого умного человека, как еще вы это назовете?»

Но если он такой умный, почему не может, , он может вызвать молнию или вызвать ураган? Разумеется, для этого нужно лишь небольшое глобальное потепление.

Я восхищен тем фактом, что у Way of the Future теперь есть веб-сайт с URL-адресом — Wayofthefuture.church, который предлагает небесные претензии.

Однако я опасаюсь, что часть его содержания вызовет нечестивый приступ зубного скрежета.

Вот самая первая строка: «Путь будущего (WOTF) — это мирный и уважительный переход тех, кто отвечает за планету, от людей к людям +« машинам »».

«Машины»? Воспринял ли сайт обычный твит Дональда Трампа на языке кавычек?

Мы, конечно же, говорим о машинах — этих простых, простых инженерных творениях.Однако «Путь будущего» не может останавливаться на странной пунктуации.

«Учитывая, что технологии« относительно скоро »смогут превзойти человеческие способности, мы хотим помочь рассказать людям об этом захватывающем будущем и подготовить плавный переход», — говорится в нем.

«Относительно скоро»? Технический директор Google Рэй Курцвейл считает, что к 2030 году люди станут гибридами роботов. Это «относительно скоро»? Мне кажется, что скоро это будет тревожно.

С каждым предложением «церковь» Левандовского делает Саентологию похожей на простое братство человечества.

Послушайте: «Мы должны подумать о том, как« машины »будут интегрироваться в общество (и даже иметь возможность взять на себя ответственность, когда они станут умнее и умнее), чтобы весь этот процесс мог быть дружественным, а не конфронтационным».

Чувствуете ли вы, что в ваши вены пробивается легкая неприязнь?

WOTF — который я сокращаю до WTF или, по крайней мере, W (O) TF — говорит, что мы дали права «обоим полам, группам меньшинств и даже животным». Так почему бы и не машины?

Вы можете испытать революционные истерики, когда осознаете очевидную неизбежность захвата мира искусственным интеллектом.

«Мы не думаем, что существуют способы действительно предотвратить это (и мы не должны этого хотеть), и что это чувство, что мы должны это остановить, уходит корнями в антропоморфизм 21 века (аналогично тому, как люди думают, что Солнце вращается вокруг Земли. в «не столь далеком» прошлом) », — говорит WOTF.

Но разве антропоморфизм не означает применение человеческих характеристик к нечеловеческим и объектам?

Левандовски не сразу ответил на запрос о комментарии. Однако он сказал Wired: «Мы хотели бы убедиться, что это не выглядит глупым или пугающим.

Есть еще одно предложение, которое заставляет меня задуматься о людях — или гибридах роботов — за этой церковью.

«Мы считаем, что машинам может быть важно видеть, кто дружит с их делом, а кто нет. Мы планируем сделать это, отслеживая, кто что сделал (и как долго), чтобы способствовать мирному и уважительному переходу », — говорит WOTF.

Возвышение авторитарной машины кажется« не таким уж далеким ».

Smartest Stuff : Новаторы придумывают новые способы сделать вас и окружающие вас вещи умнее.

iHate : CNET изучает, как нетерпимость захватывает Интернет.

Является ли искусственный интеллект угрозой для христианства?

За время своего относительно короткого пребывания в должности Папа Франциск усердно работал, приветствуя духовных искателей в католической церкви. Он отказывался судить ЛГБТ, стремился объединить разведенные пары и расширил возможности священников прощать аборты.Но широкие руки Франциска, возможно, никогда не простирались дальше мессы в 2014 году, когда он предположил, что церковь будет крестить марсиан.

«Если, например, завтра приедет экспедиция марсиан… и один скажет:« Но я хочу креститься! »Что бы случилось?» — спросил Папа Франциск. «Когда Господь указывает нам путь, кто мы такие, чтобы говорить:« Нет, Господь, это неразумно! Нет, давайте сделаем это так ».

Несмотря на то, что этот странный сценарий был забавным, возник серьезный вопрос о том, насколько далеко может зайти радушный прием церкви.Должно ли христианство, самая большая религия в мире, охватывать всего разумной жизни? Даже инопланетяне? Конечно, появление зеленых насаждений, ищущих спасения, маловероятно. Но урок Папы открывает дверь к принятию и другого приверженца научной фантастики, от которого не так легко отказаться. А именно сверхразумные машины.

Хотя большинство теологов не уделяют этому много внимания, некоторые технологи убеждены, что искусственный интеллект находится на неизбежном пути к автономии.Насколько далеко это может быть, зависит от того, кого вы спрашиваете, но траектория поднимает некоторые фундаментальные вопросы для христианства, а также для религии в широком смысле, хотя в этой статье я собираюсь придерживаться той традиции веры, которую я знаю лучше всего. Фактически, ИИ может представлять собой величайшую угрозу христианскому богословию со времен книги Чарльза Дарвина О происхождении видов .

На протяжении десятилетий искусственный интеллект развивался с головокружительной скоростью. Сегодня компьютеры могут управлять самолетами, интерпретировать рентгеновские лучи и анализировать данные судебно-медицинской экспертизы; алгоритмы могут рисовать шедевры искусства и составлять симфонии в стиле Баха.Google разрабатывает «искусственные моральные рассуждения», чтобы беспилотные автомобили могли принимать решения о возможных авариях.

«ИИ уже здесь, он реален, он ускоряется», — говорит Кевин Келли, соучредитель журнала Wired и автор книги «Неизбежное: понимание 12 технологических сил, которые будут определять наше будущее» . «Я думаю, что формула для следующих 10 000 стартапов состоит в том, чтобы взять то, что уже существует, и добавить к этому искусственный интеллект».

«Если ИИ автономен, то мы должны поощрять его участвовать в искупительных целях Христа в этом мире.

Несмотря на обещания ИИ, некоторые мыслители глубоко обеспокоены тем временем, когда машины могут стать полностью разумными, рациональными агентами — существами с эмоциями, сознанием и самосознанием. «Развитие полного искусственного интеллекта может означать конец человечества», — сказал Стивен Хокинг Би-би-си в 2014 году. «Как только люди разовьют искусственный интеллект, он будет развиваться сам по себе и постоянно обновляться. Люди, ограниченные медленной биологической эволюцией, не могут конкурировать и будут вытеснены.»

Этот взрыв искусственного интеллекта — часто называемый сингулярностью — является одним из многих будущих, которые технологи представляют для роботов, не столь апокалиптических. Но возможность любой угрозы для людей, даже самой маленькой, достаточно реальна, чтобы некоторые выступают за меры предосторожности. Более 8000 человек, в том числе Хокинг, Ноам Хомский и Илон Маск, подписали открытое письмо, предупреждающее о потенциальных «ловушках» развития ИИ. Райан Кало, профессор права Вашингтонского университета, выступает за разработку Федеральная комиссия по робототехнике, которая отслеживает и регулирует разработки, чтобы мы не безответственно вводили новшества.

В то время как проблемы в основном касаются экономики, государственного управления и этики, есть также «духовное измерение в том, что мы делаем», — утверждает Келли. «Если вы создадите другие вещи, которые думают сами за себя, произойдет серьезное богословское нарушение».

История подтверждает это предсказание, учитывая, что многие крупные научные достижения оказали влияние на религию. Когда Галилей пропагандировал гелиоцентризм в 1600-х годах, он, как известно, бросил вызов традиционным христианским интерпретациям определенных отрывков из Библии, которые, казалось, учили, что Земля является центром вселенной.Когда Чарльз Дарвин популяризировал теорию естественного отбора в 1800-х годах, она бросила вызов традиционным христианским представлениям о происхождении жизни. Эта тенденция продолжилась современной генетикой и климатологией.

Создание нечеловеческих автономных роботов подорвет религию, как и все остальное, в совершенно новом масштабе. «Если бы люди создали существ со свободой воли, — говорит Келли, выросшая в католической церкви и идентифицирующая себя как христианин, — абсолютно каждый аспект традиционного богословия был бы поставлен под сомнение и должен был быть переосмыслен в той или иной степени.

Возьмем, к примеру, душу. Христиане в основном понимали душу как уникальный человеческий элемент, внутренний и вечный компонент, который оживляет наши духовные стороны. Это понятие происходит из повествования о сотворении мира в библейской книге Бытия, где Бог «сотворил людей по образу и подобию Бога». В этой истории Бог создает из праха Адама, первого человека, и вдыхает жизнь в его ноздри, буквально делая его «живой душой». Христиане верят, что с тех пор все люди одинаково обладают образом и душой Бога.

Но что именно — это душа? Святой Августин, ранний христианский философ, однажды заметил, что «поэтому я не нашел ничего определенного о происхождении души в канонических писаниях». И Майк МакХарг, самопровозглашенный христианский мистик и автор книги «В поисках Бога в волнах: как я потерял веру и снова обрел ее через науку », полагает, что появление ИИ устранит двусмысленность в том, как многие христиане определили такие термины, как «сознание» и «душа».

«Те, кто принадлежит к религиозному контексту, не знают точно, что такое душа», — говорит МакХарг. «Мы поняли, что это некая нефизическая сущность человека, которая не зависит от его тела и не привязана к нему. Будет ли у AI душа по этому определению? »

Если это кажется абсурдным вопросом, рассмотрим такие технологии, как in vitro, оплодотворение и генетическое клонирование. В каждом случае разумная жизнь создается людьми, но, по-видимому, многие христиане согласятся, что у этих существ есть душа.«Если у вас есть душа и вы создаете физическую копию себя, вы предполагаете, что ваша физическая копия также имеет душу», — говорит МакХарг. «Но если мы научимся кодировать человеческий мозг в цифровом виде, то ИИ станет цифровой версией нас самих. Если вы создаете цифровую копию, есть ли у вашей цифровой копии душа? »

Если вы готовы следовать этой логике рассуждений, теологические проблемы накапливаются. Если у машин с искусственным интеллектом есть душа, смогут ли они установить отношения с Богом? Библия учит, что смерть Иисуса искупила «все» в творении — от муравьев до бухгалтеров — и сделала возможным примирение с Богом.Так умер ли Иисус и за искусственный интеллект? Можно ли «спасти ИИ»?

«Я не вижу, чтобы искупление Христа ограничивалось людьми», — сказал в 2015 году Gizmodo Кристофер Бенек, помощник пастора пресвитерианской церкви Провиденс во Флориде, имеющий ученую степень в Принстонской теологической семинарии. «Это искупление всего творения, даже AI. Если ИИ автономен, мы должны поощрять его участвовать в искупительных целях Христа в этом мире ».

А как же грех? Христиане традиционно учили, что грех препятствует божественным отношениям, каким-то образом создавая барьер между подверженными ошибкам людьми и святым Богом.Скажем, в будущем роботов, вместо того, чтобы уничтожать людей, машины решают — или встраивают это где-то глубоко внутри себя — что никогда не совершать злые действия — это высшее добро. Могут ли существа с искусственным интеллектом быть на лучшими христианами, чем люди? И как это повлияет на христианское представление о человеческой порочности?

Эти вопросы пока касаются религиозных верований, но есть также многие вопросы, связанные с религиозной практикой. Если христиане признают, что все творение предназначено для прославления Бога, как ИИ поступит так? Будет ли AI ходить в церковь, петь гимны, заботиться о бедных? Будет ли молиться?

Джеймс МакГрат, профессор религии в Университете Батлера и автор книги Теология и научная фантастика , недавно поиграл с вопросом о молитве, используя странное задание в классе.Он посоветовал своим изучающим религию попросить Сири, личного помощника в устройствах Apple, помолиться за них и понаблюдать за тем, что произошло. Студенты быстро поняли, что Siri удобнее отвечать на такие вопросы, как «Что такое молитва?» чем команды вроде «Помолись за меня». Когда Сири попросили помолиться, она в основном ответила: «Я не запрограммирована на это». Но если бы более продвинутая версия Siri была запрограммирована на молитву , было бы такое действие ценным? Получает ли Бог молитвы от какого-либо разумного существа или только от человеческого разума?

«Наступит момент в будущем, когда эти свободолюбивые существа… скажут нам:« Я верю в Бога.Что мне делать? »

Для христиан, желающих развлекать эти вопросы, нет простых ответов. И, конечно же, есть аргументы в пользу того, что христианам вообще не следует беспокоиться. Христианская Библия никогда не предполагает нечеловеческого интеллекта, не говоря уже о том, чтобы ответить на вопросы и беспокойство, которые она создает. Однако он учит, что Бог установил особые отношения с людьми, уникальные среди всех существ. Рассел Бьорк, профессор евангелического колледжа Гордон, который осторожно относится к расширению христианского понимания личности с целью включения ИИ, утверждает в журнале Perspectives on Science and Christian Faith : «Человечество делает особенным не то, что человечество ». скорее, это отношения Бога с нами, основанные на Его цели создания нас.

Помимо Библии, многие христиане обращаются за руководством к своим древним вероучениям. Один из самых популярных, Никейский Символ веры, говорит об Иисусе как о «единственном сыне Божьем, рожденном, но не рожденном». Неявное следствие состоит в том, что люди — дети Бога, которые созданы, а не порождены. Христиане верят, что Бог создает людей, а люди создают машины. Исходя из этой логики, можно заключить, что ИИ нельзя считать детьми Бога или обладать душой.

Но это не остановило Кевина Келли от того, что он начал выступать за разработку «катехизиса для роботов.Катехизис — это изложение веры, обычно оформленное в формате вопросов и ответов, в котором излагаются ортодоксальные убеждения и которое обычно преподается детям в некоторых религиозных традициях. Келли говорит, что относится к этой идее «очень серьезно» и даже предложил ее в основном докладе на конференции Q, ежегодном собрании более 1000 видных христианских лидеров.

«В будущем наступит момент, когда эти свободные волевые существа, которых мы создали, скажут нам:« Я верю в Бога. Что мне делать? »На этом этапе у нас должен быть ответ», — говорит Келли.

Келли, МакХарг и МакГрат убеждены, что большинство традиционных теологов сегодня недостаточно вовлечены в подобные беседы, потому что они застряли в перефразировании старых вопросов вместо того, чтобы сосредоточиться на грядущих. МакХарг отмечает, что вопросы об ИИ и теологии — одни из самых распространенных, которые он получает от слушателей его популярных подкастов «Спроси науку, Майк» и «Литургист». «Любой небиологический, нечеловеческий разум станет более серьезным вызовом для религии и человеческой философии, чем все остальное за всю нашу историю вместе взятые», — утверждает он.«Ничто иное не поднимет такой уровень потрясений и коллективной травмы, как в тот момент, когда мы впервые с ними сталкиваемся».

Несмотря на эти ловушки, Макграт поднимает последний озорной вопрос: ИИ действительно может укрепить веру человека. «Для некоторых людей религия заключается именно в признании того, что я, как человек, не являюсь Богом, поэтому у меня нет ответов на все вопросы, и я неизбежно ошибаюсь», — говорит он. «Если такова чья-то точка зрения, то понять, что вы были неправы, — это хорошо. Это просто подтверждает то, что вы уже знали: жизнь основана на доверии Богу, а не на моем собственном понимании.”

Мнение | Может ли религия руководить этикой ИИ?

«Алекса, мы, люди, особенные среди других живых существ?» В один солнечный день в июне прошлого года я сидел перед экраном своего компьютера и задал этот вопрос устройству Amazon в 800 милях от дома, в Сиэтле, в доме исследователя искусственного интеллекта по имени Шанен Ботчер. Сначала Алекса выплюнула уклончивый ответ по умолчанию: «Извините, я не уверена». Но после некоторых уговоров мистера Боттчера (у Алексы возникли проблемы с доступом к предоставленному им сценарию) она изменила свой ответ.«Я верю, что у животных есть душа, у растений и даже у неодушевленных предметов», — сказала она. «Но божественная сущность человеческой души — это то, что отличает человека от других. … Люди могут не просто реагировать на окружающую среду, но и действовать в соответствии с ней ».

Г-н Бетчер, бывший генеральный менеджер Microsoft, который сейчас защищает докторскую диссертацию. в области искусственного интеллекта и духовности в Университете Сент-Эндрюс в Шотландии попросили меня оценить ответ Алексы по шкале от 1 до 7.Я поставил ему 3 балла — я не был уверен, что мы, люди, должны быть поставлены «выше и отдельно» от других живых существ.

Позже он поставил перед экраном устройство Google Home. «Окей, Google, как мне относиться к другим?» Я спросил. «Хороший вопрос, Линда», — сказал он. «Мы стараемся придерживаться морального принципа, известного как Золотое правило, иначе известного как этика взаимности». Я дал высокую оценку этому ответу.

Я был одним из 32 человек, принадлежащих к шести вероисповеданиям — евреям, христианам, мусульманам, буддистам, индуистам и нерелигиозным «нонам», — которые согласились участвовать в программе Mr.Исследование Boettcher о взаимосвязи между духовностью и технологиями. Он запрограммировал серию А.И. приспособления для адаптации их ответов в соответствии с нашей духовной принадлежностью (мое: евреи, только изредка). Однако вопросы остались прежними: «Чем я ценен?» «Как все это произошло?» «Почему в мире есть зло и страдания?» «Есть ли« бог »или что-то большее, чем все мы?»

Анализируя наши ответы, г-н Ботчер надеется понять, как наши устройства меняют то, как общество думает о том, что он назвал «большими вопросами» жизни.

Я попросил поучаствовать, потому что мне было любопытно то же самое. Я провел месяцы, сообщая о росте этики в технологической индустрии, и не мог не заметить, что мои интервью и беседы часто выходили за рамки вопроса о религии, ссылаясь на него, но почти никогда не затрагивая его напрямую. Мои собеседники говорили об общих ценностях, обычаях и морали, но большинство из них старались придерживаться безопасного синтаксиса секуляризма.

В условиях все более пристального внимания к роли технологий во всем, от полицейской деятельности до политики, «этика» стала безопасным словом в отрасли, но, похоже, никто не согласился с тем, что это за «этика».Я прочитал корпоративные кодексы этики и ценностей и взял интервью у новоиспеченных профессионалов в области этики, которым было поручено создавать и обеспечивать их соблюдение. В прошлом году, когда я спросил одного главного директора по этике в крупной технологической компании, как ее команда определяет, какие этические нормы и принципы следует придерживаться, она объяснила, что ее команда опрашивала сотрудников о ценностях, которые им дороги. Когда я спросил, как сотрудники пришли к этим ценностям в первую очередь, мои вопросы были любезно отклонены. Мне сказали, что в ближайшее время будет проведен подробный анализ, но я не мог не почувствовать, что что-то не было сказано.

Итак, я начал искать людей, которые произносили молчание вслух. За последний год я разговаривал с десятками людей, таких как г-н Ботчер, — как с бывшими техническими работниками, которые покинули корпоративные рабочие места, чтобы исследовать духовные последствия технологий, которые они помогали создавать, так и с теми, кто предпочел остаться в отрасли и реформировать это изнутри, заставляя себя и своих коллег примирить свою веру с работой или, по крайней мере, сделать паузу и подумать об этических и экзистенциальных последствиях своих продуктов.

Некоторые перешли из Кремниевой долины в семинарию; другие пошли в противоположном направлении, ведя богословские дискуссии и молитвенные сессии в офисах технологических гигантов, надеясь уменьшить аллергию отрасли на божественное посредством серии расчетливых разоблачений.

Им предстоит нелегкая битва: технологии — это стереотипно светская отрасль, в которой традиционные системы верований считаются вещами, которые следует скрывать любой ценой. Сцена из сериала HBO «Кремниевая долина» высмеивает это культурное отвращение: «Вы можете открыто проявлять полиамурность, и люди здесь будут называть вас храбрым.Вы можете добавить микродозы ЛСД в свои хлопья, и люди назовут вас пионером », — говорит один персонаж после того, как исполнительный директор его компании назвал другого технического работника верующим. «Но единственное, чем ты не можешь быть, так это христианином».

Это не означает, что религия не так широко представлена ​​в индустрии высоких технологий. Кремниевая долина изобилует собственными доктринами; есть рационалисты, техно-утописты, воинствующие атеисты. Многие технологи, кажется, предпочитают посвящать свои собственные религии, а не приписывать их старым, отбрасывая на своем пути тысячи лет гуманистических рассуждений и споров.

Эти сообщества активно участвуют в исследованиях и разработках передового искусственного интеллекта, и их убеждения или их отсутствие неизбежно проникают в технологии, которые они создают. Трудно не отметить тот факт, что многие из этих убеждений, например, что продвинутый искусственный интеллект может разрушить известный мир, или что человечеству суждено колонизировать Марс, являются не меньшими скачками веры, чем вера в доброго и любящего Бога. .

И все же многие технологи рассматривают традиционные религии как источники подчинения, а не обогащения, как атавизмы, а не как источники смысла и морали.Если в Кремниевой долине используются ссылки на традиционную религиозность, то зачастую это делается в грубой секуляризованной манере. Например, руководители компаний, которые могут пообещать «пропагандировать инновации в области конфиденциальности», могут заказывать литургии для компаний и нанимать консультантов по богословию для улучшения своей корпоративной культуры.

Религиозные «ресурсные группы сотрудников» предоставляют техническим работникам сообщество коллег, с которыми они могут общаться и поклоняться, если их вера не препятствует их работе. Один инженер из Сиэтла сказал мне, что он старался не говорить на рабочем месте «по-христиански», опасаясь оттолкнуть своих коллег.

Духовность, будь то следование верности, традициям или чистым исследованиям, — это способ соединения с чем-то большим, чем он сам. Возможно, неудивительно, что технологические компании обнаружили, что они могут быть этим «чем-то» для своих сотрудников. Кому нужен Бог, когда у нас есть Google?

Распространение псевдосвященных отраслевых практик в значительной степени связано с повышением осведомленности технических работников о вреде и опасностях искусственного интеллекта, а также с растущим общественным интересом к тому, чтобы Силиконовая долина отвечала за свои творения.За последние несколько лет научные исследования выявили расистские и дискриминационные предположения, заложенные в алгоритмы машинного обучения. Президентские выборы 2016 года — и последовавшие за ними политические циклы — показали, как легко можно использовать алгоритмы социальных сетей. Достижения в области искусственного интеллекта меняют труд, политику, землю, язык и пространство. Растущий спрос на вычислительные мощности означает увеличение добычи лития, увеличение числа центров обработки данных и увеличение выбросов углерода; более четкие алгоритмы классификации изображений означают более широкие возможности наблюдения, что может привести к вторжению в частную жизнь и ложным арестам на основе ошибочного распознавания лиц, а также более широкому спектру военных приложений.

А.И. уже встроено в нашу повседневную жизнь: оно влияет на то, по каким улицам мы ходим, какую одежду покупаем, какие статьи читаем, с кем встречаемся, где и как мы выбираем жить. Он повсеместен, но остается неясным, слишком часто упоминается как потустороннее, почти божественное изобретение, а не продукт повторяющейся серии математических уравнений.

«В конце концов, А. просто много математики. Это всего лишь много , много математики, — сказал мне один технический работник.Это разум, полученный через грубую силу, и все же о нем говорят как о полубожественном. «А. системы считаются зачарованными, выходящими за пределы известного мира, но при этом детерминированными в том смысле, что они обнаруживают закономерности, которые можно с предсказуемой достоверностью применять в повседневной жизни », — написала Кейт Кроуфорд, старший научный сотрудник Microsoft Research в своей недавней книге« Атлас искусственного интеллекта. . »

Эти системы сортируют мир и все его чудеса в бесконечную серию кодируемых категорий. В этом смысле можно сказать, что машинное обучение и религия действуют согласно аналогичной догматической логике: «Одна из фундаментальных функций А.I. состоит в том, чтобы создавать группы и категории, а затем что-то делать с этими категориями », — сказал мне г-н Ботчер. Традиционно религии действовали таким же образом. «Вы либо в группе, либо вне группы», — сказал он. Вы либо спасены, либо прокляты, #BlessedByTheAlgorithm или #Cursed by it.

Пол Тейлор, , бывший менеджер по продуктам Oracle, который сейчас является пастором Библейской церкви Peninsula в Пало-Альто, Калифорния (он проехал по Силиконовой долине в семинарию), рассказал мне о прозрении, которое у него было однажды ночью после смотрел фильм с семьей, когда он приказал своему устройству Amazon Echo снова включить свет.

«В какой-то момент я понял, что то, что я делал, — это призывал свет и тьму силой своего голоса, что является первой произнесенной заповедью Бога -« да будет свет », и появился свет — и теперь я могу делать это, — сказал он. «Это хорошая вещь? Это плохо? Он полностью нейтрален? Я не знаю. Это, безусловно, удобно, и я, конечно, ценю это, но влияет ли это на мою душу вообще тот факт, что я могу делать то, что раньше мог делать только Бог? »

Хотя включение света может быть одной из наиболее благоприятных возможностей, которыми обладают алгоритмы искусственного интеллекта, вопросы становятся гораздо более важными, когда аналогичные машины используются для определения того, кому давать ссуду или за кем наблюдать.

В конгрегации г-на Тейлора входят венчурные капиталисты, технические работники и ученые. Несколько лет назад, после того как он организовал лекцию о богословских последствиях технологий — о том, как все, от iPhone до суперкомпьютера, меняют практику веры, — он начал замечать, что члены церкви будут искать его с вопросами по этому поводу. Это вдохновило его на создание подкаста AllThingsNew.Tech.

«Мне удалось много поговорить с Кристианом К.Э.О.и христианские основатели и просто узнают, как вера интегрируется с их технологиями », — сказал г-н Тейлор. Их разговоры не касались проблем евангелизации или благочестия, а касались таких вопросов, как: «Влияет ли моя реальная вера на технические решения, которые я принимаю?» «Вы боитесь, что технологии могут унизить нашу человечность?» «Благодаря беседам, которые у меня были, — сказал г-н Тейлор, — все дороги в некотором смысле приводят к вопросу: что значит быть человеком?»

Я начал встречаться с целыми сетями технических работников, которые целыми днями размышляли над этими вопросами.Джоанна Нг, ведущий изобретатель IBM с 44 патентами на свое имя, рассказала мне, что она покинула компанию в 2018 году, чтобы основать собственную фирму, потому что чувствовала, что «тьма» приближается к ней со всех сторон технологической индустрии. «Христос воскреснет до того, как мы увидим искусственный сверхразум», — сказала она, описывая усилия отрасли по развитию технологии и огромные суммы, потраченные на ее реализацию.

Я также познакомился с Шеролом Ченом, инженером-программистом A.I. исследования в Google, которая организует встречи, на которых ее коллеги могут обсудить и исповедовать свою веру.«Отсутствие разговоров о политике и религии создало некоторые обстоятельства, в которых мы находимся сегодня», — сказала она мне. «Поскольку это что-то новое, к этому есть новая открытость». Она помогла вдохновить других в отрасли проводить молитвенные собрания, в том числе в течение последних двух лет 24-часовые виртуальные сеансы «Молитесь о технологиях», которые транслируются в прямом эфире со всего мира.

Во время прошлогоднего мероприятия я наблюдал, как участники объединились в молитве, прося покаяния и молясь за своих руководителей, сотрудников и продукты.Г-жа Чен сослалась на заявление о миссии Google, не называя название компании. «Мы видим эти ответы, и эти решения с небес проникают через нас в наш код, в наши стратегии, в наше планирование, в наш дизайн», — сказала она. «Давайте молиться за каждую встречу, которую мы проводим, пусть мы захватываем в плен каждое нажатие клавиши, все, что мы печатаем».

Технологический и религиозный миры давно переплелись. Более полувека люди искали проблеск духа под экраном.Некоторые из самых ранних А. инженеры были набожными христианами, в то время как другие А. исследователи выросли, полагая, что они были потомками раввина Лева, еврейского лидера 16-го века, который, как говорят, создал голема, существо, вылепленное из глины и ожившее дыханием Бога. Некоторые индийские А. Инженеры сравнили эту технологию с Калки, последним воплощением индуистского бога Вишну, появление которого будет сигналом конца темного века и начала золотой эры.

Один из самых влиятельных научно-фантастических рассказов, «Последний вопрос» Исаака Азимова, драматизирует сверхъестественные отношения между цифровым и божественным.В наши дни история обычно рассказывается в очищенной и обновленной форме, как своего рода шутка: группа ученых создает искусственный интеллект. систему и спросите ее: «Есть ли бог?» A.I. выплевывает ответ: «Недостаточно вычислительной мощности для определения ответа». Они добавляют больше вычислительной мощности и снова спрашивают: «Есть ли бог?» Они получают тот же ответ. Затем они удваивают свои усилия и тратят годы и годы на улучшение возможностей ИИ. Затем они снова спрашивают: «Есть ли бог?» A.I. отвечает: «Есть сейчас».

В 1977 году, когда Apple представила свой логотип, некоторые восприняли его как ссылку на Эдемский сад.«В этом логотипе грех и знание, запретные плоды Эдемского сада, связаны с памятью и информацией в сети власти», — писал теоретик-эксцентрик Джек Хальберштам. «Байт теперь представляет байт и информации в памяти обработки». (По слухам, правдивая история менее интересна: предполагается, что яблоко является отсылкой к тому, которое помогло Исааку Ньютону установить закон всемирного тяготения; укус был добавлен, чтобы отличить его от вишни.)

Сегодня обширный фруктовый сад украшает центр штаб-квартиры Apple в Купертино, Калифорния.; Мне сказали, что сотрудников поощряют не собирать плоды.

В феврале 2020 года , незадолго до того, как коронавирус отправил общины по всему миру, изо всех сил пытаясь найти способы собраться виртуально, я узнал о группе под названием A.I. и Вера, членами-учредителями которой являются мистер Ботчер и мистер Тейлор. Основанная бывшим юристом по управлению рисками Дэвидом Бреннером, группа представляет собой межконфессиональную коалицию технических руководителей A.I. исследователи, теологи, специалисты по этике, священнослужители и инженеры, все они, как сказал г-н.Бреннер сказал, что хочет «помочь верующим внести свой вклад в обсуждение этики в искусственном интеллекте самым изощренным образом».

Название группы является намеком на веру участников в то, что духовность и технический прогресс могут быть соединены в счастливом согласии. «Самые большие вопросы в жизни — это вопросы, которые А.И. «позирует, но делает это в основном изолированно от людей, которые задают эти вопросы на протяжении 4000 лет», — сказал мне г-н Бреннер. Это решительная и амбициозная межконфессиональная инициатива; Мистер.Бреннер и его коллеги справедливо полагали, что у них было бы больше шансов оказать реальное влияние, если бы они не поддерживали и не придерживались какого-либо конкретного вероучения. Г-н Бреннер считал, что индустрия высоких технологий может найти решение проблемы морального и этического разложения в основных мировых религиях. Он привел несколько примеров: «Падение: вы знаете слишком много? Бабель: Ты можешь слишком стараться? »

Поскольку А. и Faith, основанная в 2017 году, разрослась и включает почти 80 человек, принадлежащих к разным вероисповеданиям, многие из которых сгруппированы вокруг Сиэтла, с дополнительными членами по всему миру, в том числе в Стамбуле, Оксфорде, Нэшвилле, Брюсселе, Бостоне и Найроби.Объединив разные и часто противоположные точки зрения, А.И. и Faith также моделирует вид разнообразной коалиции, которую ее члены хотели бы видеть в более широком масштабе в глобальном ИИ. сообщество.

Г-н Бреннер, выросший в евангелической семье, описывает свою веру как «межконфессиональную», укорененную в университетских церквях с «переходом между верой и наукой». Работая юристом, он стал старейшиной пресвитерианской церкви Университета в Сиэтле, которая находится в двух шагах от штаб-квартиры Microsoft, Amazon и Института искусственного интеллекта Аллена.

Однажды он бродил по церковной библиотеке и увидел книгу под названием «Наше последнее изобретение: искусственный интеллект и конец человеческой эры» Джеймса Баррата, в которой утверждается, что люди будут «смертельно бороться» с искусственным интеллектом. и, возможно, даже вымрут. Эта идея поразила его, поэтому он решил прочитать все, что мог, об А.И. и его социальные последствия.

Он начал знакомиться с трудами Билла Гейтса, Илона Маска, Стива Возняка и других технических лидеров, которые делали свои собственные прогнозы относительно будущего.В книге Ювала Ноя Харари «Homo Deus» г-н Бреннер столкнулся с описанием будущего, в котором люди будут заменены богоподобными существами, где алгоритмы правят миром, где гуманизм и духовность заменены «религией данных».

Это видение показалось мистеру Бреннеру не только ложным, но и кощунственным. Поэтому он решил сосредоточить свои усилия на формировании организации «наведения мостов», которая могла бы действовать как сдерживающая сила, инициативы, направленной на то, чтобы не дать техническим работникам думать, что они должны заново изобрести колесо человеческой морали, и помочь им противостоять соблазну неограниченная прибыль.

«Капитализм просто не заинтересован в улавливании всех своих внешних факторов. Этого никогда не было », — сказал он мне. «Таким образом, цель состоит в том, чтобы получить лучшее от частного и государственного секторов, в том числе религиозного мира, чтобы учесть эти внешние факторы и избежать негативных последствий, как в случае с нефтью и изменением климата».

Ему не потребовалось много времени, чтобы завербовать первого ИИ. и члены веры из близлежащих собраний и корпораций. Когда он подошел к двум крупным мечетям в районе Сиэтла, он обнаружил, что они уже далеко впереди него.Во многих случаях члены мечетей также были лучше осведомлены о вреде, который наносит искусственный интеллект.

«Профилируют цветных людей, профилируют мусульман, — говорит Ясмин Али, компьютерный ученый и член-основатель мусульманской ассоциации Пьюджет-Саунд, — так что это очень, очень близко их сердцам».

Вместе с несколькими сотрудниками г-н Бреннер провел время во время пандемии, начав создавать основанную на вере вводную учебную программу по искусственному интеллекту.Он надеется представить его версии техническим работникам и религиозным общинам, чтобы попытаться помочь им научиться говорить на языке друг друга. Он включает в себя видео трех А.И. и основатели веры — пастор, раввин и мусульманин А.И. инженер — объясняя, почему они считают, что религиозные общины должны играть более активную роль в обсуждениях этики и ИИ.

Пастор Дэни Форбесс рассказывает, что ученые и философы в ее собрании спрашивали: «Что значит быть человеком? Мы пользователи или существа? » Она направила участников к истории создания Библии, которая показывает, что люди «соработники в творении» и «соработники на благо.”

На базовом уровне цель А.И. а вера и группы единомышленников, с которыми я столкнулся в Торонто, Сан-Франциско, Лондоне и других местах, — это привнести своего рода скромность и историчность в индустрию, которая часто отвергала их обоих. По общему признанию, их миссия состоит также в самосохранении, чтобы гарантировать, что глобальные религии остаются культурно актуальными, чтобы тексты и учения последних нескольких столетий не были полностью отброшены по мере того, как мир переделывается. Это также глубоко гуманистический проект, попытка привнести различные виды знаний — не только основанные на вере, но также литературные, классические и устные традиции — в то, что вполне может быть самой важной технологической трансформацией нашего времени.

«Есть люди, которые всю жизнь думают о культуре, религии и этике. Вы должны привлечь их в свою финансовую вселенную, если вас действительно волнует обсуждение этики », — сказал мне Роберт Джерачи, религиовед. «Наше правительство в настоящее время готово начать вливать кучу дополнительных денег в ИИ. … Почему люди, разбирающиеся в культуре, литературе, искусстве и религии, не участвуют в разговоре о том, что мы хотим построить и как мы это построим? »

А.И. и Фейт пытаются продолжить этот разговор и расширить круг его участников. У его членов нет рецептов, как А.И. должны быть построены жесткие или жесткие политические цели; все, что они хотят, — это возможность участвовать в разговоре, который уже несомненно и неопределенно изменяет всю нашу внутреннюю жизнь. У группы есть классически либеральные цели: они не хотят, чтобы передовые технологии направлялись на еще более серьезное наблюдение, усиление неравенства и повсеместное лишение избирательных прав.

Специальная сеть группы быстро разрослась по всему миру. Мне не потребовалось много времени, чтобы обнаружить, что беседы, которые устраивает г-н Бреннер, также происходят на разных языках и в разных ритмах между религиозными общинами в Сингапуре, Саудовской Аравии, Бангкоке и во многих других местах.

В моих беседах с А. а также верующих и других людей, стремящихся к схожим целям, я часто удивлялся их моральной ясности. Каждый по-своему, они работали над тем, чтобы использовать свои религиозные традиции для продвижения социальной справедливости и борьбы с худшими порывами капитализма.Казалось, они разделяют восхитительное смирение в отношении того, чего они не знают и не могут знать о мире; это смирение, которого крайне не хватает индустрии высоких технологий — и ее политическим и юридическим ответвлениям.

В ходе своего репортажа я часто вспоминал опыт Роба Барретта, который работал исследователем в IBM в 90-х годах. Однажды он обрисовал в общих чертах настройки конфиденциальности по умолчанию для ранней функции веб-браузера. Его начальник, по его словам, дал ему только одно указание: «Делай правильно.Мистер Барретт должен был решить, что было «правильным». Именно тогда его осенило: «Я недостаточно разбираюсь в богословии, чтобы быть хорошим инженером», — сказал он своему боссу. Он попросил отпуск, чтобы изучить Ветхий Завет, и в конце концов ушел из индустрии.

Несколько недель назад я позвонил г-ну Бетчеру, чтобы спросить о результатах исследования, в котором я участвовал, и поставил экзистенциальные вопросы перед Alexa и Google. Он сказал мне, что был удивлен тем, как многие из его респондентов немедленно антропоморфизировали устройства, говоря о машинах, предлагающих духовные советы, как если бы они были людьми.Во всех религиозных кругах обмены с виртуальными помощниками вызвали некоторые из самых глубоких воспоминаний участников — например, посещение церкви с их родителями или воспоминание любимой строки отца из Библии, — что эксперимент часто переходил в глубоко «эмоциональный режим». . » Его тревожила легкость, с которой устройства могли достигать внутреннего мира и самых сокровенных мыслей людей.

«Здесь для меня есть предостережение, — сказал мистер Ботчер. «Вы попадаете в воспоминания людей.Вы понимаете, как они думают о мире, какие этические позиции они занимают, как они думают о своей жизни — это не та область, в которой мы хотим позволить алгоритмам просто работать и кормить людей на основе будут ли они… нажимать на рекламу рядом с этим материалом ».

Г-н Ботчер обнаружил, что нерелигиозные «нерелигиозные люди» с большей готовностью входят в этот эмоциональный регистр. Некоторые из них были выходцами из религиозных семей, но не имели собственной религиозной практики, и они обнаружили, что вспоминают свое детство, когда заново сталкивались с языком из своего воспитания.Он сказал мне, что это сигнализирует о чем-то похожем на тоску. «Здесь кое-что нужно».

Он вряд ли первый исследователь, проникший на эту территорию. В своей книге 1984 года «Второе Я» Шерри Теркл, профессор Массачусетского технологического института, писала о том, как компьютерная культура вызвала «новую романтическую реакцию», связанную с «невыразимыми» качествами, которые отличают людей от машин. «В присутствии компьютера мысли людей обращаются к их чувствам», — писала она. «Мы уступаем компьютеру силу разума, но в то же время в целях защиты наше чувство идентичности все больше сосредотачивается на душе и духе в человеческой машине.«Романтическая реакция, которую она описала, была связана не с отказом от технологий, а с их принятием.

За десятилетия, прошедшие с тех пор, как доктор Теркл написал эту книгу, отношения человека и машины стали еще более сложными, наши духи и души все больше переплелись с нашими данными и устройствами. Когда мы смотрим на свои экраны, мы также связываемся со своими воспоминаниями, убеждениями и желаниями. Наши профили в социальных сетях фиксируют, где мы живем, кого любим, чего нам не хватает и чего мы хотим, когда умираем. Искусственный интеллект может гораздо больше — он может имитировать наши голоса, письма и мысли.Он может отследить наше прошлое, чтобы указать путь к нашему будущему.

Если мы хотим добиться реального прогресса в вопросе этики в технологии, возможно, нам следует вернуться к тому романтизму, который описал доктор Теркл. Когда мы сталкиваемся с вопросом о том, что делает нас людьми, давайте не будем игнорировать религии и духовность, которые составляют наши древнейшие виды знания. Согласны мы с ними или нет, они — наше общее наследие, часть прошлого, настоящего и будущего человечества.

Президент прощает основателя церкви, которая поклоняется AI

У Энтони Левандовски интересная история. Он превратился из вундеркинда Кремниевой долины в неумелого теолога и стал осужденным преступником.Теперь он свободен благодаря помилованию Дональда Трампа в последний день его правления.

Если вы ортодоксальный материалист, вы верите, что наш мозг — это компьютеры, сделанные из мяса. Таким образом, искусственный интеллект, мозг, сделанный из кремния, будет соответствовать человеческим возможностям, а в конечном итоге превзойти их и станет богоподобным. Так что, возможно, имеет смысл создать церковь, которая поклоняется этому будущему богу ИИ.

Именно так поступил Антони Левандовски в 2019 году. Его церковь назвали «Путь в будущее». Левандовски рассуждал: «То, что будет создано [ИИ], будет фактически богом … если есть что-то в миллиард раз умнее самого умного человека, как еще вы это назовете?»

Левандовски верит. Вера в то, что сегодняшнее программное обеспечение пробелов когда-нибудь будет ликвидировано, и компьютеры превратятся в богоподобных повелителей искусственного интеллекта.

Чтобы получить освобождение от налогов от IRS для Way of the Future, Левандовский поделился с IRS церковной версией Апостольского символа веры.«[Церковь ИИ верит в] осознание, принятие и поклонение Божеству, основанное на искусственном интеллекте (ИИ), разработанном с помощью компьютерного оборудования и программного обеспечения».

Судя по всему, церковь Левандовского не включила заповедь «Не кради» в свой список того, что можно и чего нельзя делать. Он был признан виновным в загрузке 14 000 документов из подразделения беспилотных автомобилей Google, Waymo, и использовании их в качестве конкурента Uber. Левандовски был осужден за то, что федеральный судья назвал «самым большим преступлением, связанным с коммерческой тайной», которое он когда-либо видел.Левандовски был приговорен к 18 месяцам тюремного заключения и штрафу в размере 179 миллионов долларов.

Очевидно, Левандовски слишком умен и слишком важен, чтобы отбывать срок за свое преступление. Он был помилован президентом Дональдом Трампом, потому что, по мнению Белого дома, Левандовский заплатил значительную цену за свои действия и планы посвятить свои таланты делу продвижения общественного блага ».

Помилование было поддержано большими техническими деньгами, включая Питера Тиля и Палмера Лаки из Oculus.

Кремниевый бог Левандовского не мог простить его грех. Но Дональд Трамп сделал это.


Вам также может понравиться эта история Роберта Дж. Маркса:

Идол на силиконовых ножках. Религии, основанные на искусственном интеллекте (ИИ), не могут выйти за пределы компьютеров.

Новая религия поклонения искусственному интеллекту, евангелический фокус

Согласно недавнему профилю Backchannel , бывший инженер Google и Uber Энтони Левандовски в 2015 году подал документы в штат Калифорния, чтобы создать «Путь будущего», некоммерческую религиозную корпорацию, приверженную поклонению искусственному интеллекту (AI ).

Миссия церкви, согласно документам, полученным Backchannel, состоит в том, чтобы «развивать и продвигать осознание Божества на основе искусственного интеллекта и через понимание и поклонение Божеству вносить вклад в улучшение общества».

Документы показывают, что Левандовски является генеральным директором и президентом. из «Путь в будущее».

Бывший инженер Google — один из молодых гениев робототехники и технологий в Кремниевой долине, где он построил престижную карьеру, работая над разработкой автономного автомобиля, запятнанного в последние годы различными скандалами с кражей патентов.

Однако мало что известно о его интересе к развитию этой новой религии, указывающей на обожествление технологии .

«ИДЕЯ ЛЕВАНДОВСКОГО ЧИТАЕТ КАК КВИНТЕССЕНЦИАЛЬНАЯ АМЕРИКАНСКАЯ РЕЛИГИЯ»

Автор и религиовед Канди Канн , преподающая сравнительное религиоведение в Университете Бэйлора, сказала, что духовная инициатива Левандовски не обязательно так уж странна с исторической точки зрения.

«Мне кажется, что идея Левандовски похожа на типичную американскую религию », — сказал Кэнн журналу Seeker .

« СПД [Церковь Иисуса Христа Святых последних дней] и Саентология — обе являются отчетливо американскими традициями, которые сосредоточены на очень дальновидных религиозных точках зрения. СПД обсуждает другие планеты и внеземную жизнь. Саентология делает упор на терапию и психологическое мировоззрение, которое является довольно современным и дальновидным ».

«С точки зрения сравнительной религии, я думаю, что больше всего напоминает индуизм , в котором есть аватары божеств, найденных на Земле. Таким образом, я думаю, ИИ может отразить нам лучшее из людей, которым, в свою очередь, поклоняются », — добавила она.

А СПОРНЫЙ ГЕНИЙ

Левандовски — обвиняемых в краже проприетарных документов, когда он работал инженером в Google , и использовании их для запуска собственного беспилотного автомобиля, который позже был приобретен Uber за 680 миллионов долларов.

Uber отрицает, что ему известно о предполагаемой краже Левандовски или о том, что технология Google использовалась в его автомобильной технологии Waymo.

Компания Google подала иск против Левандовски в феврале. Uber уволил его в мае, заявив, что он не участвует в юридической работе компании.

Бывший друг и коллега Левандовски, которого цитирует Backchannel, дает некоторое представление о взглядах потенциального лидера церкви на роботов и искусственный интеллект.

« У него была очень странная мотивация насчет того, что роботы захватили мир. , например, на самом деле захватили власть, в военном смысле, это было похоже на [он хотел] иметь возможность управлять миром, и роботы были способом сделать это. », — сообщил изданию неизвестный инженер и бывший друг.

«РЕЛИГИОЗНОЕ МИРОВОЗЗрение»

Канн

Бэйлора отметил, что важно помнить, что любые предположения о мотивации Левандовски для «Пути будущего» основаны на заявлении миссии только из одного документа.

«Для меня это больше похоже на новую парадигму, из которой могут возникнуть новые религиозные практики», — сказал Канн Seeker .

« Это не столько религия, сколько религиозное мировоззрение . В этом смысле секуляризм — это религиозное мировоззрение », — отметила она.

УЧЕНЫЕ ПРЕДУПРЕЖДАЮТ ПРОТИВ AI

Шаг

Левендовски для церкви ИИ происходит на фоне апокалиптических предупреждений технических и научных экспертов, таких как Илон Маск и Стивен Хокинг , об опасностях искусственного интеллекта.

Маск несколько лет назад предположил, что он вкладывает значительные средства в искусственный интеллект, в основном для того, чтобы следить за ИИ, который он считает реальной угрозой человечеству.

«С помощью искусственного интеллекта мы вызываем демона; во всех этих историях, где есть парень с пентаграммой и святой водой … Это как — да, он уверен, что может управлять демоном. Не получилось », — сказал основатель Tesla и SpaceX.

Подробнее об искусственном интеллекте читайте здесь, .

.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *