Главная Обратная связь У вибране

Світ непізнаного - Onua.org

Onua.org - це сайт створений з метою ознайомлення користувача з світом непізнаного, новинами технологій, космічних відкриттів і загадок нашої планети Земля, НЛО, Відео , Фото, Очевидці, Загадки історії і стародавніх цивілізацій.
onua.org » 2012 РІК » Новий сценарій кінця світу: людство загине через повстання роботів
Дізнатися більше про 2012 рік
Місія Curiosity
Discovery Channel
Discovery World
Discovery Science
Animal Planet
Nat Geo WILD
National Geographic Channel
Viasat History
Viasat Explorer
Календар новин

Приєднуйтесь

Популярне на Onua.org
Фото
?=t('Новости аномалий и неопознанных явлений')?>
Дізнатися більше про планету Нібіру

Предлагаем восстановить, заказать, купить диплом Вуза в любом городе России. Только настоящий бланк ГОЗНАК с гарантией.

Переглядів: 5612
Новый сценарий конца света: человечество погибнет из-за восстания роботовУ Кембриджському університеті відкрився «Термінатор-центр» для вивчення загрози для людей з боку штучного інтелекту

Хто б міг подумати, що, завмираючи від страху і захоплення перед непохитною міццю екранного Термінатора майже тридцять років тому, сьогодні ми фантастичного робота-вбивцю будемо боятися насправді. Вчені всерйоз заговорили про прийдешнє повстання машин. Вони впевнені: штучний інтелект розвивається такими швидкими темпами, що скоро - до кінця цього століття вже точно - почне загрожувати існуванню людства. Роботи і люди на одній планеті не уживуться. І штучний розум може поневолити гомо сапієнс. Або знищити.

Оцінити реальний ризик такого моторошного розвитку подій взялися експерти з Кембріджського університету. Вони створили Центр з вивчення глобальних ризиків (Centre for the Study of Existential Risk - CSER, сайт cser.org), який за очі вже охрестили «Термінатор-центром». Команда з 15 учених буде вивчати розвиваються технології і визначати ступінь їх небезпеки для людської цивілізації.

- Ми теж хотіли б посміятися над проблемою повстання машин, якби точно знали, що воно неможливо, - вчені запевняли журналістів, що відбулася в Кембриджі прес-конференції. - Але поки такої впевненості у нас немає. Тому ми хочемо, щоб над цим подумали серйозні вчені, а не лише письменники-фантасти.

ПРОГНОЗИ ЕКСПЕРТІВ

«ЛЮДИ ЗНИКНУТЬ ЧЕРЕЗ СТО РОКІВ»

Професор Королівського наукового товариства Великобританії, космолог Мартін Рис:

- За моїми прогнозами, людство може припинити своє існування до 2100 року. Загроза для людства криється в тому, що обчислювальні потужності сучасних комп'ютерів постійно нарощуються. Це може призвести до появи глобального штучного інтелекту, який зможе сам себе програмувати і виробляти механізми і роботів без участі людини. У результаті електронні системи обзаведуться інтелектом, і гомо сапієнс більше не буде найрозумнішим. Ми ризикуємо опинитися у владі машин, які не злонамеренны, але чиї інтереси не включають. Комп'ютери візьмуть у свої руки ті сфери, які визначають швидкість і напрям технологічного прогресу. Наслідки можуть бути катастрофічними.

«ТАКОГО СЦЕНАРІЮ КІНЦЯ СВІТУ НІХТО НЕ ПЕРЕДБАЧАВ»

Один із засновників всесвітньо відомої інтернет-компанії Skype Ян Таллінн:

- Часи холодної війни пройшли, ризик ядерної катастрофи став набагато нижче. Однак тепер виживання людства загрожують комп'ютери і штучний інтелект. Коли вони обженуть за рівнем інтелекту людей, то невідомо, чого захочеться машинам, не знають втоми і не наділеним будь-якими емоціями. Люди ризикують втратити контроль над планетою, оскільки роботи байдужі до нас і до того, що ми вважаємо цінним. Наприклад, централізоване управління вже зараз розробляється американськими військовими фахівцями, і це майже точний аналог того штучного розуму, що ми можемо бачити у фільмі «Термінатор».

«ШТУЧНИЙ ІНТЕЛЕКТ - ЦЕ СКРИНЬКА ПАНДОРИ»

Професор філософії Кембріджського університету Х'ю Прайс:

- Вже сьогодні існують машини, які перевершили людини в шахах, польотах, водінні, в комерційних операціях, мови. Є й ті, що вже здатні розпізнавати рукописний текст. Поки роботи допомагають нам впоратися зі складними, але рутинними завданнями. І в майбутньому залежність людини від машин неминуча. Але покладатися на милість кібернетичних помічників людям не варто. Винахід штучного інтелекту може стати новим ящиком Пандори. Основна небезпека полягає в тому, що одного разу комп'ютери почнуть розподіляти ресурси у відповідності з власними потребами, на шкоду людським бажанням. Можливо навіть, що людству доведеться битися за ресурси з домінуючим видом. Візьмемо, приміром, горил. Вони вимирають не тому, що люди ворожі до них, а тому що ми змінюємо навколишнє їх середовище у відповідності з нашими бажаннями. Ми повинні вже зараз придумати, чому машинам ми будемо потрібні.

А В ЦЕЙ ЧАС

ПЕНТАГОН ВИДАВ НАКАЗ ДЛЯ... РОБОТІВ-ВБИВЦЬ

Ще один божевільний сценарій безлічі фантастичних фільмів може стати реальністю. Коли людство довірить свою безпеку і оборону штучного інтелекту, то комп'ютерний розум може збунтуватися і підірвати півсвіту. Той факт, що загроза не надумана, підтверджує оприлюднена 27 листопада 2012 року Міністерством оборони США нова директива під номером 3000,09.

У документі йдеться, що будь-які види автономного і напівавтономного зброї повинні бути сконструйовані таким чином, щоб у разі необхідності контроль над ними міг взяти людина, а не робот система.

- Відкрити або не відкрити вогонь - це має вирішити людина, - пояснив заступник міністра оборони США Ештон Картер. - Більше того, у людини завжди повинна бути можливість відключати озброєння роботизованих систем. Крім того, потрібно звести до мінімуму збої, які можуть призвести до непередбачених зобов'язань або до втрати контролю збройних роботів під час бойового застосування.

- Наша директива з'явилася не тому, що ми раптом усвідомили, ніби хтось наблизився до створення Термінатора, і вирішили відрегулювати це питання, - на всяк випадок вирішила відхреститися від бойовиків про роботів заступник помічника міністра оборони з політики Девід Очманек. - Це просто інструкція на майбутнє.

Однак фахівці полегшено зітхнули. Адже повністю автономні бойові роботи, підкоряються тільки закачаним у них комп'ютерним програмам, під час воєнних дій при збої в системі можуть не відрізнити мирних жителів від військових. І, вийшовши з під контролю, - перестріляти всіх.

Але скептики сумніваються, що наказ буде виконуватися. Експерти правозахисною організацією Human Rights Watch та міжнародною юридичною клінікою Гарвардської школи юридичних наук прогнозують появу повністю незалежних роботів, самостійно приймають рішення про те, коли вбивати, протягом найближчих 20-30 років.

ДЕ І ЯКІ РОБОТИ ВОЮЮТЬ?

Компанія Raytheon розмістила на кораблях ВМФ США автоматичні системи, які можуть шукати і знищувати противника, самостійно пускаючи снаряди.

Northrop Grumman X47B - безпілотні літальні бойові апарати - самі можуть злітати і сідати на авіаносці, вести повітряні бої без пілота і навіть здійснювати дозаправку в повітрі.

У Південній Кореї кордону з північним сусідом вже кілька років охороняють роботи-годинні, розроблені компанією Samsung. Вони можуть помітити незвичайні дії, поговорити з вторглися порушником і за дозволом людини застрелити чужинця.

Американська компанія Foster-Mille забезпечила бойових роботів великокаліберними кулеметами, після чого вони успішно воювали в Іраку.

А нині кілька американських компаній створюють бойовий підрозділ багатофункціональних бойових роботів. Їх колективний розум буде діяти за тим же законам, що і в громадах комах, наприклад, мурашок. Головне завдання таких бойових машин - забезпечення адекватних дій в разі втрати її контакту з бойовою групою.

У Росії створено самохідний зенітний ракетно-гарматний комплекс " Панцир-С1, який може працювати і самостійно, і в складі підрозділу з декількох бойових машин.

А фірма IBM працює над проектом віртуального мозку - Blue Brain. Обіцяє, що продемонструє його в 2019 році.

Світлана Кузіна
Ком-ев: 0 Автор: admin
Ви читаєте новину Новый сценарий конца света: человечество погибнет из-за восстания роботов якщо Вам сподобалася стаття Новый сценарий конца света: человечество погибнет из-за восстания роботов, прокоментируйте її.
html-посилання на публікацію
BB-посилання на публікацію
Пряме посилання на публікацію

Додайте коментар