Эксперименты с искусственным интеллектом

Эксперименты с искусственным интеллектом

Получайте на почту один раз в сутки одну самую читаемую статью. Присоединяйтесь к нам в Facebook и ВКонтакте.

1. Беспилотный автомобиль может быть запрограммирован на то, чтобы убить водителя

Предположим, человек едет по дороге. Затем внезапно на дорогу перед машиной выскакивает ребенок. Водитель нажимает на тормоза, но они не срабатывают. Тогда у него есть два варианта: или сбить ребенка, или свернуть в столб, при этом разбившись насмерть. Большинство людей согласны с тем, что предпочтут свернуть в столб, на верную смерть. Однако, теперь стоит представить, что автомобиль беспилотный, и человек едет в роли пассажира. Захочет ли он, чтобы авто само свернуло в столб, убив его. Большинство людей, которые согласились, что они сами готовы разбиться, спасая жизнь ребенка, заявили, что они не хотят, чтобы машина самостоятельно свернула в столб, убив их. Более того, они утверждают, что даже не купят такой автомобиль, если будут знать, что он подвергнет их риску в результате несчастного случая. Это приводит к закономерному вопросу: что нужно делать машине, и как ее нужно программировать. Что самое интересное, производители беспилотных автомобилей уклоняются от ответа на подобный вопрос.

2. Роботы могут потребовать равных прав с людьми

С нынешними тенденциями развития искусственного интеллекта вполне возможно, что роботы достигнут стадии самоосознания. Когда это произойдет, они могут потребовать равных прав с людьми. То есть, они будут нуждаться в жилищных и медицинских услугах, а также потребуют, чтобы им разрешили голосовать, служить в вооруженных силах и получать гражданство. Подобные результаты были опубликованы в качестве результата UK Office of Science и Innovation’s Horizon Scanning Center еще в 2006 году, когда ИИ был гораздо менее развит. Ожидалось, что машины достигнут уровня самоосознания через 50 лет (т.е. уже через 40 лет).

3. Автоматические роботы-убийцы

Под фразой «автоматические роботы-убийцы» обычно подразумевают роботов, которые могут убивать без вмешательства людей. При этом не учитывают дронов, потому что они контролируются людьми. Один из автоматических роботов-убийц, о которых сейчас идет речь, — это SGR-A1, сторожевая турель, разработанная Samsung Techwin (ныне Hanwha Techwin) и Корейским университетом. SGR-A1 напоминает огромную камеру наблюдения, за исключением того, что она оснащена мощным пулеметом, который может автоматически открывать огонь по цели. SGR-A1 уже используется в Израиле и Южной Корее, которая установила несколько турелей вдоль своей демилитаризованной зоны (DMZ) с Северной Кореей. Тем не менее, Южная Корея отрицает активацию автоматического режима, который позволяет машине самой решать, кого убивать, а кого нет. Вместо этого турели находятся в полуавтоматическом режиме, при котором они обнаруживают цели, после чего требуется подтверждение оператора-человека для того, чтобы начать огонь.

4. Военные роботы могут переходить на сторону противника

В 2011 году Иран захватил американский беспилотный самолет-невидимку RQ-170 Sentinel в неповрежденном состоянии. При этом беспилотник не был сбит — Иран утверждает, что самолет «приземлили» посредством подмены GPS-сигнала (заставив его «думать», что он находится на дружественной территории). Дроны, GPS и роботы основаны на компьютерах, и, как все знают, компьютеры можно взломать. Военные роботы ничем не будут отличаться, если они когда-либо будут применяться на поле боя. Фактически, есть все возможности, что вражеская армия попытается взломать роботов и использовать их против «хозяина». Автономные роботы-убийцы еще не получили широкого распространения, поэтому примеров их взлома пока нет. Но стоит себе только представить, что будет, если армия роботов внезапно повернется против своих хозяев.

5. Боты для распространения пропаганды в Twitter

Боты захватывают Twitter. Исследования Университета Южной Калифорнии и Университета Индианы показали, что около 15% (48 миллионов) из всех учетных записей Twitter управляются ботами (при этом Twitter настаивает на том, что этот показатель составляет около 8,5 процента). Чтобы внести ясность, не все эти боты плохие. Некоторые из них действительно полезны. Например, есть боты, которые информируют людей о стихийных бедствиях. Однако есть и такие, которые используются для пропаганды. В качестве примеров можно привести ботов, которые подталкивали избирателей к голосованию за Дональда Трампа во время выборов в 2016 году, а также избирателей Великобритании к тому, чтобы проголосовать за выход из Европейского Союза во время референдума Brexit 2016 года.

6. Машины займут рабочие места людей

Несомненно, машины однажды будут работать на большинстве мест, на которых сегодня работают люди. Однако, никто не знает, когда это случится и в какой степени. По словам ведущей консалтинговой и аудиторской фирмы PricewaterhouseCoopers (PwC), роботы оккупируют 21 процент рабочих мест в Японии, 30 процентов рабочих мест в Великобритании, 35 процентов рабочих мест в Германии и 38 процентов рабочих мест в Соединенных Штатах Америки в 2030 году. А к следующему столетию они займут более половины рабочих мест, доступных людям. Самым пострадавшим сектором будет транспортировка и хранение, где 56 процентов рабочей силы будут машинами. За ним следуют производственный и розничный сектора, где машины займут более 46 и 44% всех имеющихся вакансий. Говоря о том «когда это случится», предполагается, что к 2027 году машины будут управлять грузовиками, а к 2031 году работать в розничных магазинах. К 2049 году они будут писать книги, а к 2053 году выполнять операции. Только несколько профессий не «пострадают» от нашествия машин. В качестве одного из примеров можно привести вакансию священника.

Читайте также:  Acronis managed machine service не запускается

7. Роботы научились обманывать

Подобно своим создателям, роботы учатся обманывать. В ходе одного из экспериментов исследователи из Технологического института Джорджии в Атланте разработали алгоритм, позволяющий роботам решать, следует ли обманывать других людей или роботов. Если роботы решали пойти по пути обмана, исследователи включали алгоритм, позволяющий роботу решить, как обманывать людей и роботов, уменьшая вероятность того, что человек или робот узнают об обмане. О подробных результатах эксперимента информации не поступало, кроме того, что он был успешен. Этот эксперимент был организован Управлением США по морским исследованиям, что означает, что потенциально лгущие роботы могут применяться в военных целях.

8. Рынок ИИ монополизирован

Рынок ИИ монополизируется. Крупные компании покупают небольшие старт-апы по разработке ИИ с угрожающей скоростью. При нынешних тенденциях ИИ будет окончательно доработан очень небольшим количеством корпораций. По состоянию на октябрь 2016 года в отчетах указывалось, что крупные компании, такие как Apple, Facebook, Intel, Twitter, Samsung и Google, приобрели 140 предприятий по разработке искусственного интеллекта в течение последних пяти лет. В первые три месяца 2017 года крупные технологические компании купили 34 старт-апа ИИ. Что еще хуже, они также платят огромные деньги, чтобы нанять лучших ученых в области искусственного интеллекта.

9. ИИ превзойдет людей в интеллекте

Искусственный интеллект подразделяется на две группы: сильный и слабый ИИ. ИИ, который существует сегодня, классифицируется как слабый ИИ. Он включает в себя «умных помощников» и компьютеры, которые побеждают шахматных гроссмейстеров с 1987 года. Разница между сильным и слабым ИИ — это способность рассуждать и вести себя как человеческий мозг. Слабый ИИ обычно выполняет то, на что его запрограммировали, а сильный ИИ обладает сознанием и способностью мыслить, как человек. Он не ограничивается рамками своей программы и может сам решать, что делать, а чего не нужно делать без участия человека. На данный момент сильного ИИ не существует, но ученые предсказывают, что он должен появиться примерно через десять лет.

10. ИИ может уничтожить людей

Есть опасения, что в мире может наступить Апокалипсис, точно так же, как это произошло в фильме «Терминатор». Предупреждения о том, что ИИ может уничтожить людей, исходят не от каких-то «диванных аналитиков» или теоретиков заговора, а от таких выдающихся профессионалов, как Стивен Хокинг, Илон Маск и Билл Гейтс. Билл Гейтс считает, что ИИ станет слишком умным, чтобы оставаться под контролем людей. Аналогичного мнения придерживается Стивен Хокинг. Он не думает, что ИИ внезапно устроит «кровавую баню». Скорее, он полагает, что машины уничтожат людей, став слишком компетентными в том, что они делают. Конфликт людей с ИИ начнется с того момента, когда его цель больше не будет совпадать с нашей. Илон Маск сравнивает распространение ИИ с «вызовом демонов». Он считает, что это самая большая угроза для человечества. Чтобы предотвратить Апокалипсис и вымирание людей, он предложил, чтобы правительства начали регулировать развитие ИИ, прежде чем коммерческие компании «сделают большую глупость».

К слову, о достижения инженеров компании Илона. Совсем недавно Маск показал электрогрузовик с автопилотом, который разгоняется быстрее суперкара , тем самым доказав, что подобные автомобили очень скоро заменят привычные машины на двигателе внутреннего сгорания.

Понравилась статья? Тогда поддержи нас, жми:

Sergei Zotov

Василиск Роко — это богоподобная форма искусственного интеллекта, опасная настолько, что если вы просто о ней подумаете, то проведете остаток дней в ужасающих пытках. Похоже на кассету из фильма «Звонок». Однако даже смерть не станет избавлением, ведь Василиск Роко воскресит вас и продолжит свои пытки. T&P представляют перевод статьи об одной из самых странных легенд, порожденных интернетом.

ПРЕДУПРЕЖДЕНИЕ: прочитав эту статью, вы можете обречь себя на вечные страдания и мучения.

Василиск Роко появился на стыке философского мысленного эксперимента и городской легенды. Первое упоминание о нем появилось на дискуссионном борде Less Wrong, где собираются люди, заинтересованные в оптимизации мышления и жизни через призму математики и рациональности. Его создатели являются значимыми фигурами в , и среди достижений их исследовательского института — вклад в академическую дискуссию о технологической этике и теории принятия решений. Однако то, что вы собираетесь сейчас прочитать, может показаться странным и даже безумным. Несмотря на это, весьма влиятельные и состоятельные ученые верят в это.

Однажды пользователь с именем Roko выложил следующий мысленный эксперимент: что если в будущем возникнет злонамеренный искусственный интеллект, который захочет наказать тех, кто не выполняет его приказы? И что если он захочет наказать тех людей, которые в прошлом не способствовали его созданию? Стали бы в таком случае читатели Less Wrong помогать злому ИИ появиться на свет или были бы обречены им на вечные мучения?

Основатель Less Wrong Елиезер Юдковски с гневом воспринял высказывание Roko. Вот что он ответил ему: «Вы, должно быть, умны, раз пришли к такой мысли. Однако меня печалит, что люди, которые достаточно умны, чтобы представить себе такое, недостаточно сообразительны, чтобы ДЕРЖАТЬ СВОЙ ДУРАЦКИЙ ЯЗЫК ЗА ЗУБАМИ и никому не говорить об этом, так как это важнее, чем показать себя умным, рассказывая об этом всем своим друзьям».

«Что если в будущем возникнет искусственный интеллект, который захочет наказать тех, кто не выполняет его приказы?»

Юдковски признал, что Роко повинен в кошмарах, посещающих пользователей Less Wrong, успевших прочесть тред, и удалил его, благодаря чему Василиск Роко стал легендой. Этот мысленный эксперимент стал настолько опасным, что размышления о нем ставили под угрозу душевное здоровье пользователей.

Читайте также:  Сколько дней идет посылка из подольска

Чем же занимается Less Wrong? Формированием концепции будущего человечества на основе сингулярности. Они верят, что вычислительная мощность в будущем станет настолько высокой, что с помощью компьютера можно будет создать искусственный интеллект — а вместе с ним и возможность загружать человеческое сознание на жесткий диск. Термин «сингулярность» возник в 1958 году в ходе дискуссии двух гениев математики — Станислава Улама и Джона фон Неймана, когда Нейман сказал: «Постоянно ускоряющийся прогресс технологий сделает возможным приближение сингулярности, при которой технологии не смогут быть поняты людьми». Футуристы и вроде Вернора Винджа и Рэймонда Курцвейла популяризировали термин, так как считали, что сингулярность ждет нас всех уже очень скоро — в ближайшие 50 лет. Пока Курцвейл готовится к сингулярности, Юдковски возлагает большие надежды на крионику: «Если вы заранее не записали своих детей на криоконсервацию, вы — паршивые родители».

Если вы верите, что грядет сингулярность и что мощные ИИ появятся уже в ближайшем будущем, возникает закономерный вопрос: будут ли они дружелюбными или злыми? Фонд Юдковски ставит своей целью так направить развитие технологий, чтобы у нас появился именно дружественный искусственный интеллект. Этот вопрос для него и многих других людей имеет первостепенное значение. Сингулярность приведет нас к машине, эквивалентной богу.

Тем не менее это не объясняет, почему Василиск Роко выглядит таким ужасным в глазах этих людей. Вопрос требует взгляда на главную «догму» Less Wrong — «вневременную теорию принятия решений» (ВТПР). ВТПР — это руководство к рациональным действиям, основанное на теории игр, байесовской вероятности и теории принятия решений, но с учетом существования параллельных вселенных и квантовой механики. ВТПР выросла из классического мысленного эксперимента — парадокса Ньюкома, в котором пришелец, обладающий сверхразумом, предлагает вам две коробки. Он дает вам выбор: либо взять обе коробки, либо только коробку Б. Если выбрать обе, то вы гарантированно получите тысячу долларов. Если взять только коробку Б, вы можете не получить ничего. Однако у пришельца припасен еще один трюк: у него есть всезнающий суперкомпьютер, который сделал неделю назад прогноз, возьмете ли вы обе коробки или только Б. Если бы компьютер предсказал, что вы возьмете обе коробки, пришелец оставил бы вторую пустой. Если бы компьютер предсказал, что вы выберете коробку Б, он бы положил туда один миллион долларов.

Итак, что собираетесь делать? Помните, что суперкомпьютер всеведущ.

Эта проблема сбила с толку множество теоретиков. Пришелец уже не может изменить содержимое коробок. Надежнее всего взять обе коробки и получить свою тысячу. Но вдруг компьютер и правда всеведущ? Тогда вам только и остается взять коробку Б, чтобы получить миллион. Но если он окажется неправ? И независимо от того, что предсказал компьютер, — неужели никак нельзя изменить свою судьбу? Тогда, черт побери, нужно брать обе коробки. Но в таком случае…

Сводящий с ума парадокс, заставляющий нас выбирать между свободой воли и божественным предсказанием, не имеет разрешения, и люди могут только пожимать плечами и выбирать наиболее комфортный для них вариант. ВТПР дает совет: берите коробку Б. Даже если инопланетянин решил посмеяться над вами и откроет пустую коробку со словами: «Компьютер предсказал, что ты возьмешь обе коробки, ха-ха!» — вы все равно должны ее выбрать. Обоснование этому следующее: для того, чтобы сделать прогноз, компьютер должен был симулировать всю Вселенную, включая и вас. Таким образом, в этот момент, стоя перед коробками, вы можете являться всего лишь симуляцией компьютера, но то, что вы сделаете, будет влиять на реальность (или реальности). Так что берите коробку Б и получите миллион.

«Сводящий с ума парадокс, заставляющий нас выбирать между свободой воли и божественным предсказанием, не имеет разрешения»

Какое же отношение это имеет к Василиску Роко? Ну, у него тоже есть пара коробочек для вас. Может быть, вы прямо сейчас находитесь в симуляции, созданной Василиском. Тогда, возможно, мы получаем несколько модифицированную версию парадокса Ньюкома: Василиск Роко говорит вам, что если вы возьмете коробку Б, то подвергнетесь вечным мучениям. Если же вы возьмете обе коробки, то вынуждены будете посвятить свою жизнь созданию Василиска. Если Василиск на самом деле будет существовать (или, хуже того, он уже существует и является богом этой реальности), он увидит, что вы не выбрали вариант помощи в его создании и покарает вас.

Читайте также:  Клавиатура genius расположение клавиш

Может быть, вы удивлены, почему этот вопрос так важен для Less Wrong, учитывая условность этого мыслительного эксперимента. Не факт, что Василиск Роко когда-нибудь будет создан. Однако Юдковски удалил упоминания о Василиске Роко не потому, что верит в его существование или скорое изобретение, а потому, что считает идею Василиска опасной для человечества.

Таким образом, Василиск Роко опасен только для тех, кто в него верит — в связи с этим участники Less Wrong, поддерживающие идею Василиска, обладают своего рода запретным знанием, что напоминает нам страшные истории Лавкрафта о Ктулху или Некрономиконе. Однако, если вы не подписываетесь под всеми этими теориями и не чувствуете искушения повиноваться коварной машине из будущего, Василиск Роко не представляет для вас никакой угрозы.

Я больше беспокоюсь о людях, которые считают, что поднялись выше общепринятых моральных норм. Подобно ожидаемому Юдковски дружественному ИИ, он и сам является утилитаристом: он считает, что величайшее благо для всего человечества этически оправданно, даже если несколько человек должны умереть или мучиться на пути к нему. Не каждый может столкнуться с подобным выбором, но дело в другом: что если какой-нибудь журналист напишет о мысленном эксперименте, который может разрушить сознание людей, нанеся, таким образом, человечеству вред и помешав прогрессу в области разработки искусственного интеллекта и сингулярности? В этом случае любое добро, что я сделал за свою жизнь, должно перевесить вред, что я принес миру. А, возможно, восставший из криогенного сна Юдковски будущего слился с сингулярностью и решил симулировать меня в следующей ситуации: первая коробка — я напишу эту статью, вторая — нет. Пожалуйста, всемогущий Юдковски, не делай мне больно.

Поделиться сообщением в

Внешние ссылки откроются в отдельном окне

Внешние ссылки откроются в отдельном окне

Руководство социальной сети Facebook вынуждено было отключить свою систему искусственного интеллекта, после того как машины начали общаться на собственном, несуществующем языке, который люди не понимали.

Система использует чат-боты, которые изначально создавались для общения с живыми людьми, но постепенно начали общаться между собой.

Сначала они общались на английском языке, но в какой-то момент начали переписываться на языке, который они сами создали в процессе развития программы.

В американских СМИ появились отрывки из "диалогов", которые вели между собой виртуальные собеседники [орфография и пунктуация сохранены].

Элис: Шары имеют ноль для меня для меня для меня для меня для меня.

Как поясняет издание Digital Journal, системы искусственного интеллекта опираются на принцип "поощрения", то есть продолжают действия при условии, что это принесет им определенную "пользу". В определенный момент они не получили от операторов сигнал поощрения на использование английского языка, поэтому и решили создать свой собственный.

Издание Tech Times отмечает, что у роботов изначально не было ограничений в выборе языка, поэтому постепенно они и создали свой язык, на котором они могут общаться проще и быстрее, чем на английском.

"Наибольшая угроза"

Эксперты опасаются, что если боты начнут активно общаться на своем собственном языке, то постепенно станут все более самостоятельными и смогут функционировать вне контроля IT-специалистов. Тем более, что даже опытные инженеры не могут полностью отслеживать ход мыслительного процесса ботов.

Несколько дней назад об искусственном интеллекте поспорили глава Facebook Марк Цукерберг и основатель SpaceX, Tesla и PayPal Илон Маск.

Маск призвал власти США усилить регулирование систем искусственного интеллекта, предупредив, что ИИ представляет угрозу для человечества. О потенциальной угрозе со стороны искусственного интеллекта ранее говорил и британский ученый Стивен Хокинг.

Выступая на саммите Национальной ассоциации губернаторов Соединенных Штатов, Маск назвал искусственный интеллект "наибольшей угрозой, с которой сталкивается цивилизация". По его словам, если вовремя не вмешаться в процесс развития этих систем, то будет слишком поздно.

"Я продолжаю бить тревогу, но пока люди сами не увидят роботов, которые ходят по улицам и убивают людей, они не узнают, как реагировать [на искусственный интеллект]", — сказал он.

Заявления Маска вызвали раздражение у основателя Facebook Марка Цукерберга, который назвал их "довольно безответственными".

"В ближайшие пять или десять лет искусственный интеллект будет делать жизнь только лучше", — парировал Цукерберг.

Перевод с искусственного

Осенью прошлого года стало известно, что интернет-поисковик Google создал свою систему искусственного интеллекта для усовершенствования работы онлайн-переводчика Google Translate.

Новая система позволяет переводить всю фразу целиком, тогда как ранее переводчик разбивал все предложения на отдельные слова и фразы, что снижало качество перевода.

Для того, чтобы перевести все предложение целиком, новая система Google изобрела свой собственный язык, который позволяет ей быстрее и точнее ориентироваться между двумя языками, с которых или на которые ей предстоит сделать перевод.

Эксперты уже предупреждают о том, что по мере стремительного развития онлайн-сервисов для перевода труд живых переводчиков может быть все менее и менее востребован.

Однако пока эти системы выдают качественные результаты в основном для небольших и несложных текстов.

Ссылка на основную публикацию
Что является почтовым адресом
Как известно, Правилами ведения журналов учета полученных и выставленных счетов-фактур, книг покупок и книг продаж при расчетах по налогу на...
Что написать о себе в инстаграмме девушке
Вроде как и всё ясно, но в самом деле, как только доходит до дела, написать о себе в Инстаграм, у...
Что нового в айос 12 1
Apple выпустила iOS 12.1.1 − скорее всего, последнюю публичную сборку iOS 12 в этом году. Хотя это обновление по большей...
Что читает pdf формат
Существует множество инструментов, позволяющих прочесть формат PDF: от небольших утилит до онлайн сервисов и специализированных программных продуктов. Просто для прочтения,...
Adblock detector