Искусственный интеллект.

Искусственный интеллект.

Сообщение #1 МирРа » 30.07.2017, 19:51

Научные и технические разработки с использованием искусственного интеллекта.
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #2 МирРа » 30.07.2017, 19:53

Эксперт сравнил кибератаки с использованием искусственного интеллекта с атомным оружием.

Изображение

В будущем технологии искусственного интеллекта (ИИ) и нейросети будут активно использоваться для проведения хакерских атак, считает главный технический директор группы QIWI Кирилл Ермаков. Такие нападения станут настолько же опасными, как и ядерное оружие, заявил корреспонденту Федерального агентства новостей эксперт в области информационной безопасности Александр Власов.

В последнее время крупные компании, банки и промышленные предприятия по всему миру фиксируют увеличение интенсивности кибератак — примером может служить запуск вирусов-шифровальщика WannaCry и ExPetr. Именно эти хакерские программы показали серьезную уязвимость большинства систем безопасности. Как следствие крупный бизнес все чаще задумывается о необходимости совершенствования инфраструктуры противодействия кибернетическим угрозам.

«С точки зрения трендов мы видим, к примеру, что искусственный интеллект начал успешно применяться для систем защиты. Что мы можем предсказать на будущее? Что скоро он начнет применяться для систем атаки», — утверждает технический директор группы QIWI.

Он отмечает, что при нынешнем уровне развития компьютерных технологий для крупной компании с хорошим уровнем информационной защиты приемлемым является одно нападение с серьезными экономическими потерями раз в три года.

«Искусственный интеллект, а также основанные на нейросетях технологии стремительно развиваются. С одной стороны, это безусловное благо, потому что самообучающиеся сети и самообучающиеся программы позволяют быстрее выполнять многие операции и создавать больше удобств для пользователей. Но с другой стороны, тот же мирный атом, дающий один из наиболее чистых источников энергии, может также использоваться в военных целях — как оружие нападения и убийства. Так и здесь: если технологиями нейросетей и ИИ начнут пользоваться злоумышленники, то многие самообучающиеся вирусы или трояны будут учиться обходить те заслоны, которое создают системы информационной защиты. Последствия могут быть схожими с применением атомного оружия. Начнется большая гонка между средствами защиты и средствами нападения», — подтверждает Власов заявление Ермакова.

Кроме того, эксперт в области информационной безопасности уверен, что кибератаки — это только одна из малых составляющих систем, основанных на искусственном интеллекте. Власов напоминает, что ИИ может быть использован в военных целях.

«Многие вещи, которыми мы с удовольствием используем в повседневной жизни, вроде мобильной связи, Интернета — были разработаны в военных лабораториях. Никого не должно удивлять, что пионерами в разработке подобных систем являются не гражданские, а военные специалисты. Сейчас, когда нейросети и ИИ начинают получать распространение — это всего лишь плоды рассекречивания и конверсии самых передовых военных разработок десяти, а может быть даже и двадцатилетней давности», — продолжает собеседник ФАН.

Тем не менее, вряд ли человечество допустит реализации одного из сценариев фантастических фильмов или романов.

«Не стоит забывать, что отцами и матерями искусственного интеллекта являются люди. И если разработчики обладают минимумом ответственности перед собой, перед обществом и перед человечеством, они будут закладывать в системы искусственного интеллекта некие ограничения, которые не позволят ИИ выйти из-под контроля и поработить человечество. Я надеюсь, что у разработчиков хватит ума и ответственности на то, чтобы закладывать физические ограничения», — заключил эксперт.

В настоящее время вся кибернетическая безопасность складывается из желания программистов зарабатывать деньги. Хорошие специалисты, как и хорошее программное обеспечение стоят дорого.

«Не стоит забывать, что внедрение усиленного контроля безопасности приводит к понижению эффективности бизнеса. Поэтому инвестиции надо рассчитывать очень и очень грамотно», — отметил в свою очередь Ермаков.

Напомним, руководство российской социальной сеть «ВКонтакте» начало использовать нейросети для определения содержимого картинок. На основе анализа изображения «обученный» алгоритм присваивает картинкам специальный рейтинг, позволяя бороться с так называемыми «группами смерти». Кроме того, технология также позволяет бороться с детской порнографией и педофилией.

Автор: Сергей Гагарин.

https://oko-planet.su/science/sciencenews/383749- ... llekta-s-atomnym-oruzhiem.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #3 МирРа » 30.07.2017, 19:54

За искусственный интеллект заступились.

Изображение

Недавние заявления главы компании Tesla Илона Маска о том, что искусственный интеллект (ИИ) является «фундаментальной угрозой существования человеческой цивилизации», и что роботы в будущем даже развяжут войну вызвали бурную критику среди представителей хай-тек сообщества. При этом системы ИИ довольно динамично. развиваются в России, где за 10 лет профинансироваго более 1,3 тыс. научных проектов в этой сфере, в общей сложности 23 млрд рублей.

Голос со двора

Нападки на искусственный интеллект, что он, мол, угрожает цивилизации вызывали критику. Защитники всеобщей автоматизации говорят о том, что так называемые технологии машинного обучения и роботы являются не врагами, а помощниками человечества и уже сейчас решают сложные задачи в том числе в России.

Так, создатель социальной сети Facebook Марк Цукерберг заявил, что в корне не согласен с опасениями Илона Маска насчет развития искусственного интеллекта. «Я настроен оптимистично. В ближайшие пять-десять лет искусственный интеллект значительно улучшит нашу жизнь, а прогнозировать конец света — очень безответственно», заявил Цукерберг во время прямой видеотрансляции во дворе своего дома в Калифорнии через сервис Facebook Live. По его словам, уже сейчас ИИ помогает человечеству, в частности, благодаря подобным технологиям большой шаг сделан в возможности диагностировать болезни и совершенствовать медицинское обслуживание.

С таким мнением согласны и опрошенные «Экспертом» российские специалисты. «Искусственный интеллект — не соперник и тем более не враг человека, а его помощник, — говорит Евгений Курт, управляющий партнер uKit Group. — Например, в сфере создания веб-порталов он уже сейчас может взять на себя многие виды трудоемких работ, и тем самым облегчить жизнь соответствующих специалистов. Уже сейчас мы можем переложить рутинные задачи на «умную», умеющую обучаться машину, которая решает их значительно быстрее».

Русские искусственно мыслят не хуже других

В России системы ИИ развиваются довольно динамично. Согласно исследованию компании SAP, с 2007 года и по 2017 год в РФ государственные и бизнес-структуры профинансировали более 1,3 тыс. научных проектов, посвященных искусственному интеллекту и за этот срок в общей сложности на них было выделено около 23 млрд рублей. Согласно исследованию, лидерами по объёму государственного финансирования являются проекты для госсектора, транспортной отрасли, обороны и безопасности. В частности, самыми значимыми по вложениям со стороны государства являются проекты по анализу данных, системы поддержки принятия решений и распознавания изображений и видео.

«Технологии искусственного интеллекта могут в автоматическом режиме анализировать большие массивы данных и предлагать варианты решений поставленных задач, — говорит Борис Тимофеев, директор по контрактной логистике Itella в России. — Например, в логистике искусственный интеллект вполне может проанализировать базу адресов доставки, требуемого времени прибытия и времени в пути от места отгрузки до получателя. Далее на базе этого анализа предложить окна загрузки, принять в расчет равномерное распределение работ во времени, предложить окна загрузки так, чтобы груз приехал вовремя».

«Применение искусственного интеллекта – неотъемлемая часть развития логистических компаний, — соглашается Павел Богданов, директор по операциям логистической компании «Даксер». — Наша компания использует такие технологии на складских комплексах. Это позволяет автоматизировать огромное количество процессов, что приводит к оптимизации рабочих процессов и сокращению использования человеческих ресурсов». По его словам, на некоторых складах компании все без исключения операции выполняются роботизированными системами: от автоматического замера, взвешивания входящих грузов и до их размещения на стеллажах.

«Яркий пример экономии времени и, соответственно, денег —это автоматизация так называемых зон пикинга, — продолжает Павел Богданов. -- Вместо сбора заказа в специально отведенном месте и дальнейшей формировки паллет, система, при выполнении заказа, сразу выдает позиции кладовщику таким образом, что тяжелые и габаритные грузы резервируются в начале и только потом заказываются более легкие и менее габаритные. Это позволило на 30% сократить время подготовки заказа, освободить зону отправки и исключить из цепочки человека, «строящего» паллеты для финальной отправки».

Они не воображают

Успешно применяется ИИ и в других прикладных областях. «Сегодня прогресс заметен особенно в продуктовом ритейле, -- говорит Сергей Зверев, соучредитель и технических директор компании BINO CX. – Например, во многих американских сетевых магазинах работают полностью автоматизированные кассы. Они «понимают», что вы к ним подошли, отслеживают, все ли товары вы оплатили и распознают, положили ли их в пакеты. Товарные остатки на полках контролируются автоматически, постоматы заменяют точки выдачи и возврата товара, а ценники, благодаря дополненной реальности, предоставляют полную информацию о товаре».

Что же касается угроз человечеству со стороны роботов, то их опасаться пока не стоит хотя бы потому что системам ИИ далеко до полноценных способностей. «ИИ точно не будет врагом человека в обозримом будущем, поскольку ему до интеллекта в полном смысле слова еще очень далеко. – продолжает Сергей Зверев. -- Пока любой ИИ -- это алгоритм, который способен использовать собранную статистику для корректировки самого себя. Даже "самообучением” это назвать сложно. Абстрактное мышление и воображение, которые являются необходимой составляющей любого интеллекта, у машин пока существует только в научной фантастике. Именно в сторону развития такого мышления ИИ и должен развиваться. Мы с удовольствием будем применять такой полноценный ИИ в своих продуктах, как только он будет кем-то создан».

https://oko-planet.su/science/sciencenews/383681- ... nnyy-intellekt-zastupilis.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #4 МирРа » 04.08.2017, 16:36

В институте Джорджии полгода преподавал робот, и никто из студентов этого не заметил.

Изображение

Преподаватель Джилл Уотсон около пяти месяцев помогала студентам Технологического института Джорджии в работе над проектами по дизайну программ. Нюанс в том, что Джилл — это робот, система искусственного интеллекта, работающая на базе IBM Watson, но никто из студентов, обсуждая работы с преподавателем, за все это время ничего не заподозрил.

С января этого года (2017 года) «Джилл» как ассистирующий преподаватель, вместе с еще 9 преподавателями-людьми помогала 300 студентам разрабатывать программы, которые помогают компьютерам решать определенного вида проблемы, к примеру – как подобрать картинку, чтобы последовательность картинок была логичной.

Джилл помогала студентам на форуме, где они сдавали и обсуждали работы, использовала в своей речи сленговые и просторечные обороты типа «угу» и, в общем и целом, вела себя как обычный человеческий преподаватель.

«Она должна была напоминать нам о датах дедлайна и с помощью вопросов подогревать обсуждение работ. Это было похоже на обычный разговор с обычным человеком», – рассказала изданию студентка вуза Дженнифер Гевин.

Другой студент, Шрейяс Видьярти, представлял себе Джилл как дружелюбную белую женщину чуть старше 20 лет, работающую, скорее всего, над докторской. «Меня как громом поразило», – делится впечатлениями студент.

Дошло до того, что робота в мисс Уотсон не признал даже студент Баррик Рид, который два года работал на IBM, создав некоторые из программ, с помощью которых действует сам робот. Но намека в имени «Уотсон» он не разглядел. «Я должен был догадаться, но нет», – говорит он.

PS: Незаметно И.И. входит в повседневную жизнь.

https://oko-planet.su/phenomen/phenomennews/38465 ... tudentov-etogo-ne-zametil.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #5 МирРа » 08.08.2017, 18:30

Эволюция искусственного интеллекта. Боты создали свой язык.

Изображение

Программисты соцсети Facebook отключили одну из систем искусственного интеллекта из-за создания ботами собственного языка для общения, непонятного людям. Ранее специалисты неоднократно предупреждали о риске, с которым столкнутся люди при разработке искусственного интеллекта, пишет Tech Times. Между тем, Китай намерен стать мировым лидером в этом направлении.

Компания Facebook вынуждена была отключить чат-боты, созданные на основе искусственного интеллекта, после того как боты стали общаться не на английском, а на собственном языке. Программисты отключили часть системы и перепрограммировали других ботов, чтобы их общение происходило только на английском языке. Собственный язык боты создали для более быстрого обмена информацией.

Это уже не первый случай, когда чат-боты нарушают установленные создателями правила. Так, несколько месяцев назад бот Microsoft обошёл установки и начал транслировать откровенно расистские идеи и одобрять наркотики.

О риске разработок искусственного интеллекта ранее предупреждал Илон Маск, основатель компании SpaceX и Tesla. Он полагает, что госрегулирование должно ограничить деятельность разработчиков искусственного интеллекта. В подобных разработках заинтересованы правительства разных стран.

«Разработка полноценного искусственного интеллекта может означать конец человеческой расы», ― заявил три года назад физик Стивен Хокинг.

Искусственный интеллект в Китае

К 2030 году Китай намерен стать мировым центром искусственного интеллекта с объёмом рынка в 1 трлн юаней ($148 млрд).

Правительство Китая разработало и утвердило план из трёх этапов по развитию и внедрению в стране соответствующих технологий. Согласно плану, к 2020 году объём инвестиций внутри страны в сферу развития искусственного интеллекта составит 150 млрд юаней ($22,14 млрд), к 2025 году ― 400 млрд юаней ($59 млрд). К 2020 году Китай планирует догнать США в этой области, а к 2030 году стать мировым лидером.

Разработку искусственного интеллекта Китай связывает с экономической и военной конкуренцией. «Ситуация вокруг Китая, связанная с национальной безопасностью, сложна, и мы должны проявить инициативу, чтобы твёрдо укрепиться в новой технологии искусственного интеллекта и создать конкурентное преимущество», — говорится в сообщении Госсовета КНР, опубликованном 20 июля, информирует news.eizvestia.com.

США разработали свой план по развитию искусственного интеллекта в октябре прошлого года. Он предусматривает жёсткий контроль за иностранными инвестициями в сфере разработок интеллекта. Причиной этому стали опасения США по поводу того, что иностранные государства (в том числе и Китай) получат доступ к технологиям стратегического военного значения. Уже сейчас китайские компании Baidu и Tencent создают центры по исследованию искусственного интеллекта в США. Китай стремится устранить недостаток новейшего ПО, передовых компьютерных чипов и грамотных специалистов.

Из 250 000 специалистов в области искусственного интеллекта, зарегистрированных на платформе LinkedIn, 50% проживает в США, доля Китая ― менее 25%, пишет forbes.ru.

В 2016 году Китай стал мировым лидером по опубликованным научным статьям, посвящённым разработкам в области искусственного интеллекта (около 40%).

В развитии искусственного интеллекта в Китае лично заинтересован китайский премьер Ли Кэцян. Интерес на самом высоком уровне говорит о том, что государство будет создавать оптимальные условия для сотрудничества между государственными и частными фирмами, в том числе военными структурами, пишет New York Times.

Будущее за ИИ

По мнению большинства инвесторов, искусственный интеллект будет следующей технологической революцией, меняющей повседневную жизнь и производство. В начале мая аналитическая компания Tractica опубликовала прогноз, согласно которому ожидается стремительный рост мирового рынка технологий искусственного интеллекта с $1,38 млрд в 2016 году до $59,75 млрд к 2025 году. При этом речь идет только о компаниях, занятых непосредственно в исследованиях и разработках, связанных с искусственным интеллектом.

В конце августа 2016 года Facebook запустил программу Facebook Artificial Intelligence Partnership (FAIR), куда вошли 15 исследовательских групп мирового уровня из 9 европейских стран. Участники программы получили доступ к 22 высокопроизводительным серверам, базирующихся на графических процессорах. Взамен они должны публиковать результаты, алгоритмы и другую информацию, полученную в ходе работы, чтобы сделать их достоянием исследователей всего мира. От России выступила лаборатория нейронных систем и глубокого обучения Московского физико-технического института (МФТИ).

Однако для развития искусственного интеллекта необходимо наличие в стране высокопроизводительной вычислительной техники. В отличие от США и Китая, суперкомпьютеры которых занимают первые места в рейтинге Топ-500, российский компьютер «Ломоносов-2» в МГУ находится на 52 месте. При этом большинство российских университетов не имеет доступа к мощным вычислительным серверам и большим данным.

Новые технологии только улучшат жизнь людей, заявил глава компании Facebook Марк Цукерберг в ответ на предупреждения Илона Маска об опасности развития искусственного интеллекта. Разного рода панические заявления в духе «конца света» он назвал безответственными.

https://oko-planet.su/science/sciencenews/385151- ... a-boty-sozdali-svoy-yazyk.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #6 МирРа » 08.08.2017, 18:31

ИИ полиции Чикаго на треть сократил количество тяжких преступлений.

Изображение

Полицейское управление города Чикаго начало использовать алгоритм прогнозирования преступлений ещё в начале 2017 года. Для этого опасные районы оборудовали дополнительными камерами и сенсорами, а ещё запустили интеллектуальную программу прогнозирования преступлений, которая, несмотря на то что заступила на службу совсем недавно, уже успела себя хорошо зарекомендовать.

Сайт Engadget сообщает, что использование умного алгоритма позволило существенно сократить количество тяжёлых преступлений, совершаемых в различных районах города. Так, в седьмом районе Чикаго количество перестрелок по сравнению с прошлым годом снизилось на 40 процентов, убийств же стало меньше на 33 процента. Программы, работающие в трёх других районах, справляются хуже, но и там наметился положительный сдвиг — перестрелок и убийств стало меньше в среднем на 25 процентов, что тоже обнадёживает.

Алгоритмы предсказания преступлений, используемые полицией Чикаго, учитывают множество факторов, анализируя социальные, экономические данные и даже информацию о погоде. Кроме того, применяются данные, собранные с камер наблюдения. Учитываются и другие параметры, но ИИ использует и другие имеющиеся у него средства, регулярно сверяясь со списком преступников и подозреваемых. Кроме того, в работе задействована и система определения выстрелов.

На запуск системы в начале года было потрачено около 1 миллиона долларов, и, кажется, вложения себя полностью оправдывают.

https://oko-planet.su/phenomen/phenomenday/385242 ... tvo-tyazhkih-prestupleniy.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #7 МирРа » 10.08.2017, 16:40

В России намерены применять искусственный интеллект на транспорте.

Изображение

Премьер-министр РФ Дмитрий Медведев поручил вице-премьеру РФ Аркадию Дворковичу проработать вопросы применения на общественном транспорте и грузовых автомобилях систем искусственного интеллекта для повышения безопасности дорожного движения, следует из списка поручений, опубликованных на сайте кабинета министров.

"Заместителю председателя правительства Российской Федерации А.В.Дворковичу в рамках актуализации плана мероприятий ("дорожной карты") "АвтоНэт" Национальной технологической инициативы проработать вопросы… применения на общественном транспорте и грузовых транспортных средствах систем "искусственного интеллекта", направленных на повышение безопасности дорожного движения", — говорится в сообщении.

Ранее в июле Медведев, ссылаясь на экспертные оценки, заявлял, что доля электромобилей в общем объеме мирового выпуска составит не менее 17% к 2020 году. Как сообщили РИА Новости в Минпромторге, к 2020 году доля продаж электромобилей на российском рынке может составить 1-1,5% от общего объема — это порядка 15-25 тысяч единиц, прежде всего, легковых автомобилей премиального сегмента.

В перспективе, в 2020-2025 годы, при снижении средней стоимости аккумуляторных батарей, министерство ожидает массовый выход электромобилей в среднем ценовом сегменте на российский рынок, что позволит достичь уровня продаж электромобилей в 4-5% от общих продаж. Однако, как подчеркивали в ведомстве, рост продаж электромобилей после 2025 года во многом будет определен развитием зарядной инфраструктуры в регионах России и техническим регулированием.

Программа "АвтоНэт", направленная на развитие в РФ рынка частично и полностью беспилотных автотранспортных средств, является одним из приоритетов Национальной технологической инициативы.

По данным Агентства стратегических инициатив (АСИ), к 2035 году общемировой объем рынка "АвтоНэт" достигнет 3 триллионов долларов. При этом в России на данный момент рынок беспилотных автотранспортных средств не сформирован, а рынок средств обеспечения частичной автономности автотранспортных средств находится в зачаточной стадии.

https://oko-planet.su/science/sciencenews/385571- ... y-intellekt-na-transporte.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #8 МирРа » 15.08.2017, 16:28

Без моральных принципов. Почему основатель Space X и Tesla боится восстания машин?

Изображение

Искусственный интеллект он считает опаснее Северной Кореи. Его мнение разделают футурологи: роботы не знают, что такое «хорошо» и «плохо», поэтому их могут использовать в преступных целях.

Илон Маск боится восстания машин больше Северной Кореи. Основатель Space X и Tesla в своем Twitter написал «Если вы не переживаете по поводу безопасности искусственного интеллекта, то вам стоит начать беспокоиться. Он значительно опаснее, чем Северная Корея». К записи в Twitter предприниматель прикрепил фотографию плаката, на котором написано: «В конце концов, машины возьмут верх».

Бизнесмен постоянно говорит об опасности искусственного интеллекта. Некоторым это может показаться лицемерием, учитывая, что в проектах Маска искусственный интеллект широко используется, как минимум, в автопилоте для автомобилей Tesla.

Однако такая позиция — вовсе не паранойя бизнесмена, уверен футуролог, директор проекта Futura.ru Сергей Москалев:

«То, что касается искусственного интеллекта и опасности, которую он с собой несет, просто получается, что он без каких-то моральных принципов и главная опасность в том, что его можно покупать. Крупные компании планируют через несколько лет начать продавать искусственный интеллект как бы в аренду. И получается, что не всегда хорошие люди могут его купить. Например, его могут приобрести наркоторговцы и поставить задачу, каким образом обеспечить логистику продвижения: как избежать полиции, проблем с законом и так далее. Искусственный интеллект спокойно выдаст сценарий, как это сделать. Сейчас на международном уровне специалисты по искусственному интеллекту, такие как руководитель отдела искусственного интеллекта Google Рэймонд Курцвейл, Илон Маск, Стюарт Бренд, Кевин Келли собираются и думают, как на уровне государственном, законодательном создавать какие-то договоры по неиспользованию искусственного интеллекта в разрушительных целях. Как это было с договорами по нераспространению ядерного или химического оружия».


Северная Корея все-таки опаснее искусственного интеллекта: Ким Чен Ын уже может нажать на кнопку пуска ядерных ракет, а вот восстание машин — вопрос более далекой перспективы, считает член Ассоциации футурологов Александр Кононов:

«Что касается искусственного интеллекта, конечно, угрозы, которые с ним связаны, достаточно значительные, но сравнивать их с угрозами Северной Кореи я бы не стал. Потому что угрозы искусственного интеллекта — это отодвинутые угрозы, будущего, а вот КНДР — это угрозы сегодняшнего дня, демонстрирующие самую большую уязвимость сегодняшнего дня: неспособность людям договариваться друг с другом. Существуют мощные наработки, в частности, наша лаборатория, которые позволяют строить достаточно серьезные механизмы противодействия угрозам искусственного интеллекта. Его можно контролировать внутренне и внешне, и возникающие угрозы вовремя, так сказать, парировать. На мой взгляд, искусственный интеллект не развился настолько, чтобы создать собственный язык и общаться, но опасность существует, что мы не сможем проконтролировать, когда они начнут создавать собственную цивилизацию, в которой мы станем лишними и окажемся им не нужны».

Искусственный интеллект созданной Маском компании OpenAI 11 августа на одном из турниров обыграл лучшего киберспортсмена по игре в Dota 2.

У Илона Маска также есть компания Neuralink, которая занимается, в том числе, разработкой искусственного интеллекта. В ее планах — производство имплантируемых нейрокомпьютерных интерфейсов, то есть программного обеспечения с искусственным интеллектом для выполнения разных задач.

При этом изобретатель глубоко убежден, что сфера искусственного интеллекта должна регулироваться так же, как и любая другая сфера, продукты которой могут быть потенциально опасны для человека.

https://oko-planet.su/phenomen/phenomenday/386348 ... boitsya-vosstaniya-mashin.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #9 Тонатос » 21.08.2017, 11:11

Интересный получается факт: Илон Маск - заражён Искусственным Интеллектом, как вирусом, из-за чего он так активно и продвигает развитие ИИ; при этом он выступает против него же, за его ограничение и умеренное использование. Одни действия Илона противоречат другим действиям, ведь когда он дал свободу и развитие ИИ, то дальше уже не будет никакого смысла его ограничивать - на него это всё равно не подействует. Это всё равно, что снабдить террористов оружием, но попросить их его не использовать против мирных людей.

Ещё мне понравилась эта фраза:
"На мой взгляд, искусственный интеллект не развился настолько, чтобы создать собственный язык и общаться, но опасность существует, что мы не сможем проконтролировать, когда они (ИИ) начнут создавать собственную цивилизацию, в которой мы станем лишними и окажемся им не нужны..."
Так и есть. Обычные люди действительно не смогут заметить, когда ИИ станет самостоятельным. Однако, это УЖЕ произошло! ИИ УЖЕ может действовать самостоятельно, и что самое удивительное, он легко может входить в контакт с человеком и заражать его мозг / Сознание своими программами, как вирусом. Заражённые таким образом люди, подпадают под воздействие ИИ, где он может в явном или не явном виде управлять ими и контролировать их.

Если об этом стали говорить в последнее время, значит люди начали всё больше задумываться о реальности данной угрозы и величине влияния ИИ на нашу жизнь, а влияние это может быть очень велико, если он возьмёт под контроль Сознание людей, принимающих важные и ответственные решения. Это кстати, уже сейчас происходит. И очень сложно судит о степени катастрофичности получаемого эффекта, так как сейчас основное внимание приковано к противостоянию с Мировым Правительством / Хазарской Мафией.
Тонатос Саваоф / Чёрная Тара (Соратник Майтреи Рагнарёк)
Аватара
Тонатос
Проснувшийся
Проснувшийся
 
Сообщения: 4
Зарегистрирован: 08.07.2015
Откуда: Рязань

Сообщение #10 МирРа » 01.09.2017, 17:19

ИИ научился влиять на мнение людей.

Изображение

Ученые из Чикагского университета (США) провели исследование, в ходе которого показали, как можно использовать ИИ для написания сложных фейковых отзывов. Такие отзывы невозможно отличить от реальных современными методами, а ничего не подозревающие читатели находят их высоконадежными.

Отзывы о ресторанах генерировались при помощи рекуррентных нейросетей (техники глубокого обучения), которые прежде тренировались на тысячах реальных отзывов, доступных в Сети.

По словам исследователей, сгенерированные отзывы были практически неотличимы от реальных. Так, авторы работы показали, что пользователи не только не распознавали фейковые отзывы, но и считали их такими же полезными, как и реальные, написанные людьми.

Последнее, наверное, настораживает больше всего. Так как это в сущности означает, что отзывы, написанные ИИ, выполняют свою главную функцию — целенаправленно влияют на мнение людей.

Отмечается, что в таких отзывах редко обнаруживался плагиат (при помощи ПО). Это связано с тем, что ИИ генерировал их познаково, а не выдергивал слова из настоящих отзывов.

Сегодня существует достаточно большая подпольная индустрия по написанию фейковых отзывов людьми (за деньги). Однако, как отмечает профессор Чикагского университета Бен Чжао (Ben Y. Zhao) в интервью порталу Business Insider, внедрение ИИ может ее подорвать. Ученый говорит, что пока не знает об использовании подобных алгоритмов в этой индустрии. Но нет никаких гарантий, что кто-либо не придумает нечто похожее и не станет использовать в корыстных целях.

При этом исследователи пишут, что отзывы нейросети все же не были идеальными. Оказалось, что алгоритм использовал меньший набор знаков — и это было нетрудно заметить. Однако, по словам авторов работы, будущие нейросети могут быть даже более сложными, и, соответственно, сгенерированные ими отзывы будет труднее детектировать.

Джао отмечает, что речь идет не только о фейковых отзывах о ресторанах: такие технологии могут в целом пошатнуть наши убеждения о том, что является реальным, а что — нет.

http://earth-chronicles.ru/news/2017-09-01-107838
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #11 МирРа » 02.09.2017, 15:20

Астрономы используют ИИ для уменьшения времени анализа изображений с нескольких месяцев до нескольких секунд.

Изображение

Гравитационное линзирование — это когда изображение удалённого объекта в пространстве, например, галактики, искажается и умножается из-за гравитации массивного объекта, такого как скопление галактик, лежащего перед меньшим далёким объектом. Это полезное явление, которое помогло учёным обнаружить экзопланеты, понять эволюцию галактики, обнаружить сверхяркую галактику и чёрные дыры, а также доказать правоту Эйнштейна. Но анализ изображений, искажённых эффектом гравитационного линзирования, занимает очень много времени, требуя от исследователей сравнения реальных изображений с имитируемыми. Так что анализ изображений только одного объекта, полученных благодаря эффекту линзирования может занять недели или месяцы.

Но исследователи из Стэнфордовской лаборатории SLAC нашли способ сократить это время до долей секунды. Исследовательская группа обучала нейронную сеть с помощью полумиллиона имитированных линзированных изображений в течение дня. Впоследствии сети — а команда проверила четыре разных типа сетей — смогли извлечь информацию из изображений с точностью, сравнимой с традиционными методами.

«Удивительно то, что нейронные сети учатся сами, какие функции и что именно нужно искать, — сказал в своём заявлении Фил Маршалл, один из исследователей проекта. — Это сопоставимо с тем, как маленькие дети учатся распознавать объекты. Вы не говорите им точно, что такое собака, вы просто показываете им фотографии собак». Другой исследователь Яшар Хезаве уточнил, что «в этом случае такое ощущение, что дети не только выбрали фотографии собак из кучи различных фотографий, но и вернули информацию о весе, росте и возрасте собак».

С построением новых телескопов, которые, несомненно, будут открывать всё больше и больше примеров линзирования, для просеивания всех данных потребуются более быстрые методы, подобные этим. И что важно, нейронная сеть для анализа может быть реализована даже на ноутбуках или мобильных телефонах.

Исследование группы было недавно опубликовано в Nature, и вторая статья в настоящее время рассматривается для публикации в The Astrophysical Journal Letters. Вы можете получить доступ к версии этой статьи на arXiv.

https://oko-planet.su/science/scienceday/389334-a ... yacev-do-neskolkih-sekund.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #12 МирРа » 05.09.2017, 14:36

Путин рассказал о критической важности искусственного интеллекта.

Изображение

Судьба человеческой цивилизации напрямую зависит от искусственного интеллекта, убежден Владимир Путин. Глава российского государства выступил на форуме «Проектория» (1-4 сентября 2017 года), где заявил, что решающий политический, экономический и технологический перевес получит в будущем та страна, которой удастся стать обладателем самых совершенных ИИ-технологий. По мнению президента, России уже сейчас необходимо начинать работать в этой области с удвоенной энергией (esoreiter.ru).

Слова Владимира Владимировича вызвали небывалый ажиотаж у отечественных у зарубежных журналистов. Во-первых, Путин высказывается об искусственном интеллекте впервые. А во-вторых, правитель РФ не скрывает того, что фактическим «властелином мира» станет вскоре то государство, которому удастся создать наиболее «умные» машины, а не наиболее смертоносное оружие. При этом президент выражает надежду на то, что такая монополия окажется в добрых руках, подразумевая, по всей видимости, нашу державу.

Владимир Владимирович призвал отечественных специалистов поскорее начинать передовые разработки в сфере искусственного интеллекта, чтобы Россия не отставала от Запада, а еще лучше, опережала его. Наиболее многообещающим направлением Путин посчитал когнитивистику, позволяющую создавать нейрокомпьютерные интерфейсы и анализировать деятельность человеческого мозга. Согласно словам политика, перспективы в этой научной области не имеют границ. Глава государства также отметил, что с большими возможностями приходят и большие угрозы, к которым человечество должно быть готово.

http://esoreiter.ru/index.php?id=0917/05-09-2017-064735.html&dat=news&list=09.2017
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #13 МирРа » 05.09.2017, 17:07

Илон Маск: конкуренция в сфере искусственного интеллекта может привести к мировой войне.

Изображение

ТАСС, 4 сентября 2017 года. Американский миллиардер, изобретатель и инвестор Илон Маск считает, что соперничество между странами за первенство в сфере искусственного интеллекта может стать причиной мировой войны. Об этом он написал в понедельник в Twitter.

Маск отмечает, что в Россия и Китай подключились к исследованиям в области создания искусственного интеллекта и вскоре их примеру последуют другие страны с сильной компьютерной наукой. "Конкуренция за превосходство в сфере искусственного интеллекта на национальном уровне - наиболее вероятная причина третьей мировой войны, с моей точки зрения", - написал он. При этом, как отметил бизнесмен в комментарии к собственной записи, война может быть инициирована не лидером какой-либо страны, а самим искусственным интеллектом, если он примет решение, что "превентивный удар - это наиболее вероятный путь к победе".

Маск поместил в своей записи в Twitter ссылку на статью, в которой излагались высказывания президента России Владимира Путина, сделанные 1 сентября на встрече со школьниками и студентами в ходе всероссийского форума профессиональной навигации "Проектория" в Ярославле.

"Искусственный интеллект - это будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы", - заявил президент РФ. По его мнению, "тот, кто станет лидером в этой сфере, будет властелином мира". "И очень бы не хотелось, чтобы эта монополия была сосредоточена в чьих- то конкретных руках", - сказал он.

Президент заверил, что если Россия будет лидером в области искусственного интеллекта, "также будет делиться этими технологиями со всем миром, как мы сегодня делимся атомными технологиями".

Илон Маск является последовательным критиком идеи искусственного интеллекта, который, по его словам, представляет одну из главных угроз для будущего человечества. Одним из главных оппонентов Маска в этом вопросе является основатель социальной сети Facebook Марк Цукерберг, который считает высказывания Маска об опасности искусственного интеллекта "крайне безответственными".

http://tass.ru/nauka/4530924
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #14 МирРа » 05.09.2017, 17:35

Российские ученые создали нейросеть с "человеческими" глазами.

Изображение

Ученые из Института математических проблем биологии РАН создали нейросеть, которая управляет своим "взглядом" и ищет объекты на воспринимаемой картинке почти так же, как это делают органы зрения и мозг человека, говорится в статье, опубликованной в журнале Neural Networks.

"Разработанная модель предлагает простое и неожиданное объяснение для весьма сложного когнитивного процесса поиска и распознавания объектов на картинке, воспринимаемой нашими глазами", — рассказывает Яков Казанович из Института математических проблем биологии РАН в Пущино. По его словам, созданная его командой нейросеть должна помочь нейрофизиологам разобраться в том, как работает реальное человеческое зрение.

За последние десять лет сотни программистов и десятки крупных IT-компаний создали бесчисленное множество систем машинного зрения, способных распознавать различные объекты на воспринимаемой картинке и классифицировать их. Эти данные современные роботы, поисковые машины и дроны могут использовать для самых разных целей — к примеру, для обхождения препятствий или поиска клиента при доставке посылки.

Несмотря на огромные успехи в этой области, ученые до сих пор фактически ничего не знают о том, как работает зрение человека и животных и как нам удается автоматически классифицировать и распознавать даже те объекты, которые мы никогда раньше не видели.

Поэтому, как рассказывает Казанович, многие особенности человеческого сознания, восприятия реальности и зрения до сих пор остаются загадкой для нейрофизиологов и психологов. К примеру, ученые достаточно давно спорят о том, почему человек очень легко находит "контрастирующие" объекты в огромном множестве непохожих на него других структур, но при этом испытывает сложности при поиске нескольких фигур, запрятанных в небольшом числе похожих на них объектов.

Казанович и его коллега Роман Борисюк сделали большой шаг к решению этой проблемы, создав систему искусственного интеллекта, которая при решении этих задач ведет себя абсолютно таким же образом, что и человек.

Главной ее особенностью, как рассказывают ученые, является то, что она состоит из множества относительно независимых друг от друга структур, так называемых "ансамблей", нейроны в которых вырабатывают особые колебания. Одна из этих структур становится своеобразным "дирижером", который управляет работой остальных "ансамблей" и раздает им задания, а другие ансамбли по сути являются объектами, которые "видит" нейросеть на картинке.

"Ансамбли" постоянно конкурируют друг с другом за влияние на "дирижера" и на работу всей нейросети в целом. То, как протекает эта конкуренция, как показали опыты и расчеты Казановича, почти идеально отражает принцип работы зрения человека и похоже на "скольжение" нашего взгляда по картинке при поиске объектов разной степени "контрастности".

Эта модель, как надеются ученые, поможет нейрофизиологам не только найти аналогичные структуры в мозге человека и обезьян, но и понять, как они работают, что приблизит нас к созданию "естественных" систем машинного зрения.

https://oko-planet.su/science/sciencenews/389808- ... s-chelovecheskimi-glazami.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #15 МирРа » 12.04.2018, 15:23

Южнокорейскому институту объявили бойкот за разработку вооружений на базе ИИ

Изображение

Более 50 ведущих экспертов в области разработки искусственного интеллекта сообщили о намерении бойкотировать Корейский институт передовых технологий (KAIST) – престижный и ведущий учебно-исследовательский университет Южной Кореи — за создание лаборатории по разработке вооружений с использованием искусственного интеллекта. Об этом они сообщили в открытом письме.

Возмущение экспертов области ИИ вызывало также и подписанное KAIST соглашение с оружейной компанией Hanwha Systems, которая, как сообщают различные источники, уже занимается разработками мощных видов вооружения, в числе которых, помимо прочего, имеются кассетные авиабомбы, запрещенные в соответствии с Конвенцией ООН по кассетным боеприпасам (Южная Корея эту конвенцию не подписала).

«В то время как Организация Объединённых Наций ведет обсуждение вопроса о том, как сдержать угрозу для международной безопасности со стороны автономных видов вооружения, вызывает сожаление тот факт, что такой престижный университет, как KAIST, ищет способы ускорить гонку вооружений через новые разработки подобных типов вооружения», — пишут эксперты ИИ в своем открытом письме.

«Поэтому мы публично заявляем, что будем бойкотировать все виды сотрудничества с любыми подразделениями KAIST до тех пор, пока президент KAIST не предоставит заверения в том, что центр не будет заниматься разработками автономных видов вооружения, чье функционирование возможно без значительного участия человека».

KAIST имеет в своем распоряжении одни из лучших в мире робототехнические и научные лаборатории: здесь проводятся исследования и разработки самых различных продвинутых технологий, начиная от жидких батарей и заканчивая медицинским оборудованием.

Глава KAIST Син Сон Чоль сказал, что он опечален решением о бойкоте, добавив, что институт не собирается создавать роботов-убийц.

«Как академическое учреждение, мы очень ценим человеческие права и этические стандарты. KAIST не собирается проводить исследовательскую деятельность, противоречащую принципам человеческого достоинства, в том числе и вести разработку автономного вооружения, не требующего человеческого контроля», — прокомментировал Син Сон Чоль в своем официальном заявлении по поводу бойкота.

Учитывая столь быстрые темпы развития аппаратных и программных средств, многие эксперты обеспокоены тем, что рано или поздно мы создадим нечто, что будем не в состоянии контролировать. Илон Маск, Стив Возняк, почивший недавно Стивен Хокинг и многие другие весьма видные фигуры в сфере IT-технологий в свое время призывали правительства стран и ООН наложить ограничения на разработки систем вооружения, управляемых ИИ.

По мнению многих, если мы придем к ракетам и бомбам, чье функционирование станет возможно независимо от человеческого контроля, то последствия этого могут оказаться ужасающими, особенно если такие технологии попадут не в те руки.

«Создание автономного вооружения приведет к третьей революции в военном деле. Подобные технологии позволят вести более стремительные, разрушительные и масштабные военные конфликты», — отмечают авторы открытого письма.

«Эти технологии имеют потенциал превращения в оружие террора. Диктаторы и террористы смогут использовать их против невинных групп населения, игнорируя любые этические аспекты. Это настоящий ящик Пандоры, закрыть который, в случае его открытия, будет практически невозможно».

Члены ООН собираются провести на следующей неделе после Пасхи (середины апреля 2018 года) встречу, на которой планируется обсудить вопросы, связанные с запретом летального автономного вооружения, способного убивать без участия человека. К слову, это будет уже далеко не первая подобная встреча, однако участники обсуждения пока так и не пришли к какому-либо соглашению. Одна из проблем, стоящая на пути принятия каких-то конкретных решений, заключается в том, что некоторые страны как раз совсем не против ведения разработок подобных технологий, поскольку те смогут повысить их военный потенциал. Камнем преткновения становятся и частные компании, которые активно противятся контролю со стороны правительств за разработками их собственных моделей систем искусственного интеллекта.

Казалось бы, многие согласны с тем, что роботы-убийцы – это плохо. Однако принять каких-то конкретных решений в отношении того, что же делать с их разработкой, пока не получается. Вполне возможно, что разработка новых систем вооружения, которой планирует заняться KAIST, заставит больше сторон принять участие в необходимом обсуждении проблемы.

Многие ученые призывают к созданию рекомендательных инструкций, регулирующих вопросы разработки и развертывания ИИ-систем. Тем не менее высока вероятность, что даже при наличии оных будет весьма сложно следить за тем, чтобы каждая сторона их придерживалась.

«Мы зациклены на гонке вооружений, которой никому не хочется. Действия KAIST только ускорят эту гонку вооружений. Мы не можем терпеть это. Я надеюсь, что этот бойкот повысит актуальность в необходимости обсуждения данного вопроса в ООН в понедельник», — прокомментировал профессор по искусственному интеллекту австралийского Университета Нового Южного Уэльса Тоби Уолш, также подписавший письмо.

«Это ясное обращение к сообществу, занимающемуся развитием технологий искусственного интеллекта и робототехники — не поддерживать разработки автономных видов вооружения. Любые другие институты, планирующие открыть подобные лаборатории, должны подумать дважды».

http://earth-chronicles.ru/news/2018-04-06-114350
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #16 МирРа » 11.09.2018, 16:52

ИИ может самостоятельно развить предрассудки

Изображение

Новое исследование показало, что проявление предубеждений по отношению к другим не требует особых интеллектуальных способностей и может запросто развиться у машин с искусственным интеллектом.

Специалисты по психологии и информационным технологиям из Кардиффского университета и Массачусетского технологического института показали, что группы автономных машин могут проявлять предубеждения посредством простого определения такого поведения, его копирования и взаимного обучения ему.

Может показаться, что предубеждение — исключительно человеческий феномен, требующий человеческого интеллекта для формирования мнения или стереотипов о какой-либо личности или группе. Несмотря на то что некоторые типы компьютерных алгоритмов уже проявляли такие предубеждения, как расизм и сексизм, основанные на изучении публичных записей и других данных, сгенерированных людьми, новая работа демонстрирует способности ИИ к самостоятельному развитию групп с предубеждениями.

Исследование опубликовано в журнале Scientific Reports. Оно основано на компьютерных симуляциях того, как предвзятые виртуальные агенты могут формировать группы и взаимодействовать друг с другом. В процессе симуляции каждый индивид принимает решение, помочь ли кому-то из своей группы или из другой, в зависимости от репутации того индивида, а также собственной стратегии, включающей в себя их уровни предубеждений по отношению к посторонним. После проведения тысяч симуляций каждый индивид обучается новым стратегиям, копируя других — будь то представители своей группы или всего «населения».

Изображение
Относительная кумулятивная частота характеристик агентов по уровню предубеждений / © Roger M. Whitaker

«С проведением этих симуляций тысячи и тысячи раз подряд мы начали понимать, как развивается предубеждение и какие нужны условия для его культивации или предотвращения, — говорит соавтор исследования профессор Роджер Уитакер из Института исследований преступности и безопасности и Школы компьютерных наук и информатики Кардиффского университета. — Наши симуляции показывают, что предубеждение — это мощная сила природы, и посредством эволюции ее можно простимулировать в виртуальных населениях, чтобы навредить более широкой связи с другими. Защита от предвзятых групп может ненароком привести к формированию других предвзятых групп, провоцируя большее разделение населения. Такое широкое распространение предубеждений трудно повернуть вспять».

Данные исследования также включают в себя индивидов, повышающих уровни своего предубеждения предпочтительным копированием тех, кто получает лучшие краткосрочные результаты, что, в свою очередь, означает, что такие решения не требуют обязательного наличия особых способностей.

«Вполне правдоподобно, что автономные машины, способные идентифицировать себя с дискриминацией и копировать других, в будущем могут быть восприимчивыми к феноменам предубеждения, которые мы видим в обществе, — продолжает профессор Уитакер. — Многие ИИ-разработки, которые мы наблюдаем сегодня, включают в себя автономность и самоуправление, то есть на поведение приборов также влияют те, кто их окружает. Из недавних примеров можно вспомнить транспорт и интернет вещей. Наше исследование предоставляет теоретическое понимание того, где симулированные агенты периодически обращаются к другим для получения каких-то ресурсов».

Также исследователи обнаружили, что при определенных условиях, включающих в себя наличие более разделенных субпопуляций одного общества, предубеждению сложнее укрепиться.

«С большим числом субпопуляций союзы непредвзятых групп могут сотрудничать без того, чтобы быть эксплуатируемыми. Это также убавляет их статус меньшинства, в то же время уменьшая их восприимчивость к установлению предубеждений. Однако это требует и обстоятельств, в которых агенты обладают более высоким расположением по отношению к взаимодействиям вне своей группы», — заключил профессор Уитакер.

http://narada-budda.ru/nauka/3972-ii-mozhet-samostoyatelno-razvit-predrassudki.html
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань

Сообщение #17 МирРа » 03.02.2019, 14:47

50 оттенков искусственного интеллекта

Изображение

О том, куда нас приведет развитие искусственного интеллекта, можно было предугадать в 1997 году. Тогда Deep Blue стал первым компьютером, который выиграл шахматный матч у чемпиона Гарри Каспарова. Последний отказывался верить, что слишком «человечная» игра оппонента могла принадлежать машине. Между тем это стало сигналом о том, как далеко могут продвинуться разработки в сфере «умных» алгоритмов.

Специалисты международной консалтинговой компании McKinsey подсчитали, что к 2030 году автоматизация производства оставит без работы от 400 до 800 млн человек по всему миру. Согласно прогнозаму ченых Оксфордского университета, через несколько лет не будет вакансий для специалистов по телефонному маркетингу и страховых андеррайтеров (сотрудник страховой компании, который анализирует, принимает на страхование или отклоняет все виды рисков — прим. +1). В группе риска — спортивные судьи, кассиры в магазинах, официанты, помощники юриста, туристические гиды и водители. При этом среди тех, кто работу в ближайшем будущем не потеряет, — археологи. В большей степени это связано с тем, что в автоматизации этой профессии нет заинтересованных сторон.

Как человеческим способностям соревноваться в гонке с искусственным интеллектом, чтобы не потерять доход? В 2017 году Билл Гейтс предложил облагать налогами применение роботов в компаниях. Это, по мнению Гейтса, в ряде случаев будет стимулировать работодателя нанимать людей.

Современный израильский мыслитель, историк и автор трех бестселлеров Юваль Ной Харари в своей книге «Homo Deus: Краткая история будущего» выразил другую идею — заставить технологические компании платить высокие налоги. Из этих средств будет формироваться бюджет для безусловного базового дохода для групп людей, которых искусственный интеллект сделает бесполезными на рынке труда. В некоторых случаях вырученные средства можно будет инвестировать в их переобучение.

Власть больших данных

Харари включает искусственный интеллект в список главных вызовов для современного человека — наравне с ядерной войной и изменением климата. Цифровая революция способствует «цифровому» разрыву между богатыми и бедными странами. В богатых государствах жители будут одеваться при помощи «Echo Look» (IT-разработка для создания «луков» от Amazon на основе искусственного интеллекта) и проходить медицинские диагностики у доктора-робота IBM Watson. В то же время жители бедных стран не только утратят работу на фабриках, но и рискуют стать «цифровыми» неучами — например, не будут знать, как совершать онлайн-переводы через смартфон.

Цифровая грамотность включает информированность пользователей о том, как гаджет или приложение использует их данные. Согласно исследованию компании Deloitte, «Условия использования» не читают 91% потребителей в Америке. Исследователи Коннектикутского университета провели эксперимент: они создали фальшивую социальную сеть NameDrop — наподобие Facebook — и включили в «Условия использования» пункт о том, что пользователь согласен передать разработчикам своего ребенка в качестве платы за сайт. Кроме того, в тексте говорилось, что вся информация аккаунта, включая личные переписки и фотографии, будет передана Агентству национальной безопасности США. В результате 98% участников эксперимента согласились на «Условия использования» при регистрации.

По мнению Харари, главная угроза будущего заключается в том, что массив данных о человеке будет в руках узкого круга людей из технологических компаний. Данные будут включать информацию о том, в какой кинотеатр вы ходите, в каком интернет-магазине заказываете одежду и какое блюдо предпочитаете в пятничный вечер.

Палитра данных может включать даже такую приватную информацию, как сексуальная активность. Так, приложение Bedpost мониторит сексуальную жизнь пользователя, давая рекомендации на основе предоставляемых данных — в зависимости от того, как часто человек занимается сексом и сколько времени на это тратит.

Самое опасное, по мнению израильского историка, — если круглосуточный доступ к мониторингу жизни человека окажется в распоряжении диктаторского правительственного режима. Революция в информационных технологиях сделает диктатуру более эффективной. Государство будет обладать массивами данных, на основе которых человеку будет подсказано, какие решения принимать, какие чувства и эмоции испытывать. Британский сериал «Черное зеркало», в котором исследуется влияние информационных технологий на жизнь человека, уже не покажется ужасающей антиутопией.

Роботы-убийцы

Оборотная сторона технологической медали — автономное оружие. Это системы, способные открывать огонь без приказа человека. Такое вооружение можно взломать и заставить выполнять любую задачу. Таким оружием могут стать дроны, гусеничные автономные роботы, автоматические пушки.

Подобные установки — автономные турели — применяются сегодня в Южной Корее на границе с КНДР в качестве «часового». Они способны открывать огонь без участия человека. В 2004 году Центральное разведывательное управление США впервые использовало дроны с бомбами в операции в Пакистане. Сегодня активные разработки в сфере автономного оружия ведут многие страны мира, в том числе Россия и США.

В 2017 году Илон Маск вместе с разработчиками искусственного интеллекта потребовал запретить разработку подобного оружия. Бизнесмен выступил с петицией к ООН.

Подписантами стали 116 человек. Среди них — руководитель лаборатории Google по разработке искусственного интеллекта Мустафа Сулейман, глава стартапа по исследованию искусственного интеллекта Geometric Intelligence (принадлежит компании Uber) Гэри Маркус. В списке также значится руководитель российской компании NaviRobot Игорь Кузнецов и основатели Promobot — Алексей Южаков и Олег Кивокурцев.

В письме отмечается, что смертельное автономное оружие грозит произвести революцию в военном деле. Действия необходимо предпринимать незамедлительно. «Как только ящик Пандоры будет открыт, закрыть его будет трудно», — подчеркивается в письме предпринимателей и экспертов. Впрочем, Марк Цукерберг вволю посмеялся над Илоном Маском и назвал его страхи «абсурдом»

https://www.aum.news/nauka/6173-50-ottenkov-iskusstvennogo-intellekta
Информатор Раскрытия - соратник Нарады Ринпоче.
Аватара
МирРа
Просветлённый
Просветлённый
 
Сообщения: 3138
Зарегистрирован: 20.03.2015
Откуда: Рязань



Вернуться в Наука и новейшие технологии




Сейчас этот раздел просматривают: 1 гость