Загрузка. Пожалуйста, подождите...
Главная страницаСуспільство → Штучний інтелект. Побоювання Маска і Гокінга

Штучний інтелект. Побоювання Маска і Гокінга

19.07.2017, 20:50
  Відомий американський винахідник Ілон Маск днями назвав штучний інтелект (ШІ) основною загрозою, яку людство пізнає на собі як цивілізація.
А наступного дня в одному з торгових центрів Вашингтона високотехнологічний робот-поліцейський відмовився виконувати свою роботу і втопився у фонтані.   Чи не вперше світлі уми людства попереджають про небезпеки від штучного інтелекту, а роботи відмовляються коритися.   Усі помруть у цьому тисячолітті   Відомий англійський фізик і популяризатор науки Стивен Гокінг неодноразово закликав шукати нові планети для заселення, інакше людство загине.   Він вважає, що наша цивілізація не виживе протягом найближчого тисячоліття. За словами фізика, постає дедалі більший ризик загибелі людства від стихійних лих. Наприклад, від раптової ядерної війни, штучно створеного генетичного вірусу чи від штучного інтелекту.   Гокінг закликає людей проявити більше інтересу до космічних подорожей заради майбутнього.   У квітні цього року під час свого виступу на Глобальній конференції мобільного інтернету, де він зачитував доповідь про роль ШІ у сучасному світі, фізик заявив, що якщо людство не зможе контролювати штучний інтелект, то в кінці кінців програє, так як люди обмежені рамками біологічної еволюції і не зможуть змагатися з машинами.   Перше порушення закону роботехніки   У 2016 році інженер з Каліфорнійського університету в Берклі Олександр Ребен створив робота, який може призвести до травмування людей і приймає це рішення самостійно.   Ребен вирішив наочно продемонструвати, що людству необхідно задуматися про свою безпеку, перш ніж активно роботизувати все навколо.   Інженер створив нешкідливу на вигляд конструкцію з окремим місцем для людського пальця. Як тільки людина доторкається до визначеного місця, робот фіксує цю дію і вирішує, заподіювати шкоду людині чи ні.   Для цього в робота є невелика голка, яка і покликана демонструвати силу робота над людиною.


Ребен зазначає, що навіть творець не може передбачити поведінку, здавалося б, нешкідливої машини.   Своїм роботом дослідник хотів довести, що необхідно думати швидше про створення тієї самої червоної кнопки, ніж над таким стрімким розвитком робототехніки і штучного інтелекту.   Штучний інтелект - головна загроза   Під час виступу перед Національною асоціацією губернаторів США кілька днів тому Ілон Маск назвав штучний інтелект найбільшою загрозою, яка постає перед нашою цивілізацією.       Винахідник вважає, що розвиток ШІ має контролюватися на державному рівні, і закликав американський уряд до швидкого втручання в процес розвитку технології.   "У мене є доступ до новітніх технологій у сфері ШІ, і я думаю, що люди повинні бути стурбовані через  це. ШІ - це фундаментальна загроза існуванню людства. Вона незрівнянна з аваріями на дорогах, падіннями літаків, неякісними ліками і поганою їжею", - сказав Маск.   Він і раніше говорив про небезпеку від штучного інтелекту. Утім, ця промова була вкрай прикметною - через її крайню різкість у висловлюваннях і рішучого заклику втрутитися до держави.   Сара Коннор уже підтвердила активізацію SkyNet   У 2015 році газетяр із The Financial Times Сара Коннор стала головною героїнею сюжету про робочого з німецького заводу Volkswagen, вбитого роботизованою установкою.   Виною тому була схожість її імені з персонажем фільмів про Термінатора, а також час публікації - напередодні прем'єри нової частини знаменитої франшизи.   Увечері 1 липня Коннор поділилася заміткою із The Financial Times у Twitter, і через кілька годин пост, у якому користувачі побачили натяк на повстання машин, зібрав кілька тисяч ретвітів.   Дівчина не одразу усвідомила курйозність ситуації, адже, за її словами, вона ніколи не дивилася Термінатора і не могла зрозуміти, чому її стрічка переповнена людьми, які пишуть про SkyNet - вигадану систему на базі штучного інтелекту, яка у фільмах управляє створенням системи протиракетної оборони і ядерним озброєнням США.  

A robot has killed a worker in a VW plant in Germany http://t.co/RRdCnNmbsj
— Sarah O'Connor (@sarahoconnor_) 1 июля 2015 г.   Штучний інтелект може проявитися сам по собі   Відомий програміст, співзасновник компанії Apple Стив Возняк у 2015 році говорив, що розвиток штучного інтелекту потенційно небезпечний для людини.   "Я згоден з Гокінгом і Маском, які попереджали, що майбутнє людства може виявитися досить сумбурним. Рано чи пізно "розумні" пристрої, задумані для полегшення нашого життя, почнуть розуміти, що вони - кращі. Хто стане тоді керувати компаніями - повільна людина чи машина?" - говорив Возняк.       Однак через рік він уже змінив свою думку.   "Певної миті мав побоювання, тому що, коли ви заміните мізки, компанії з людьми втрачають гроші, машини роблять усе за нас, і більше немає робочих місць. Я думав так, але потім повністю змінив свою думку з певних причин", - сказав бізнесмен.   Одна з них - закон Мура, який не збирається створювати машини достатньо розумними, щоб дійсно думати так, як це робить людина.   "Інша причина - навіть якщо машини зможуть думати, як люди, вони не зможуть дослухатись до власної інтуїції чи сказати, що вони робитимуть згодом і що в них у результаті може вийти. Вони просто не в змозі оперувати такими поняттями. Дотримуючись такої точки зору, ми в дійсності говоримо не про ШІ - він може проявитися сам по собі", - пояснює Возняк.   Він вважає, що якщо машини стануть незалежними мислителями, то будуть вічними партнерами людей, які стоять понад усіма іншими видами.   Дитячий робот напав на людину   Наприкінці 2016 року китайський бот Little Chubby вийшов з-під контролю на технологічній виставці і почав трощити скляний стенд своїх творців.   У результаті постраждав один із співробітників виставки, який спробував зупинити розлюченого робота - за різними даними, він чи наїхав на ногу чоловіка, чи порізав битим склом. Постраждалого відвезли на ношах з травмою щиколотки.   Little Chubby створювався, щоб навчати дітей у віці від 4 до 12 років. Виробник тоді заявив, що винен у цьому інциденті оператор, який переплутав кнопки, а система уникнення зіткнення не спрацювала, оскільки на Little Chubby була відкрита панель управління.   Дивіться фото: Штучний інтелект. Побоювання Маска і Гокінга
  Bank of America: Світ в матриці з імовірністю 50%

"korrespondent.net"


 

ЧИТАЙТЕ ТАКОЖ:
 
1221
 

Комментарии -
0

Добавить комментарий
Ваше имя: *
Ваш e-mail: *
Полужирный Наклонный текст Подчеркнутый текст Зачеркнутый текст | Выравнивание по левому краю По центру Выравнивание по правому краю | Вставка смайликов Вставка ссылки Картинка Выбор цвета | Скрытый текст Вставка цитаты Вставка спойлера | Вставка email