Відмінності між версіями «Портфоліо до проекту "штучний інтелект" Бойко Аліни»
7693902 (обговорення • внесок) |
7693902 (обговорення • внесок) |
||
Рядок 48: | Рядок 48: | ||
==Календар подій проекту:== | ==Календар подій проекту:== | ||
Google Календар [https://calendar.google.com/calendar/r/week/2018/11/19] | Google Календар [https://calendar.google.com/calendar/r/week/2018/11/19] | ||
+ | https://calendar.google.com/calendar?cid=YWx5YS5ib2lrbzAwQGdtYWlsLmNvbQ | ||
==Опитування до проекту== | ==Опитування до проекту== |
Версія за 08:26, 22 листопада 2018
Зміст
Тема статті
Зворотній бік AI. Чому штучний інтелект загрожує людству, і як зарадити цій небезпеці
Опис проблеми
Небезпека для цифрового світу
В чому полягає небезпека для цифрової сфери? Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.
«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.
Подальший розвиток AI, на думку авторів дослідження, може призвести до того, що переконливі чат-боти зможуть долучати людей до тривалих діалогів, таким чином збільшуючи рівень довіри до себе, або навіть набувати вигляду реальних людей у відеочаті.
Роботи-вбивці Іншою небезпекою, яка з’являється на горизонті, є можливість атаки на фізичні об’єкти. Автори звіту попереджають, що AI може проникати у системи безпілотних автомобілів, управляти ними та призводити до аварій. Ще одним прикладом може бути використання «армій дронів», які за допомогою технології розпізнавання обличчя можуть вбивати людей, наголошується у дослідженні.
У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.
Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.
Фейк як нова реальність На політичному фронті штучний інтелект може використовуватися як інструмент спостереження, створення більш цілеспрямованої пропаганди та активного розповсюдження дезінформації. Держави можуть використовувати автоматизовані платформи спостереження для придушення інакомислення. Штучний інтелект може надсилати користувачам персоналізовані повідомлення, щоб вплинути на їхню поведінку під час виборів.
AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.
«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.
Вихід є? Автори звіту не пропонують точних сценаріїв дій, за яких штучний інтелект не зможе стати потужною зброєю в руках злочинців та маніпуляторів. Втім, аналітики дають кілька важливих порад, як протидіяти потенційній небезпеці.
По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.
По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.
Автори доповіді визнають, що найкращим способом протидії AI є… AI. Водночас вони зауважують: “Захист, що базується на штучному інтелекті, не є панацеєю, особливо коли ми дивимося за межі цифрового світу».
Блог до проекту
Мультимедійна презентація
Календар подій проекту:
Google Календар [3] https://calendar.google.com/calendar?cid=YWx5YS5ib2lrbzAwQGdtYWlsLmNvbQ
Опитування до проекту
Google Форми [4]
Фотоальбом до проекту
Google Фотознімки [5]
Спілкування між учасниками проекту
- Чат
- Форум
- Спільнота на базі соціальних мереж
- Skype
- Telegram
- Viber
- Wiki-сторінка
- Сайт
- .....
Інформаційні ресурси
Друковані джерела
- ...
- ...
- ...
Відеоматеріали
- https://www.youtube.com/watch?v=isibWY_xBfM
- https://www.youtube.com/watch?v=tVI-Po6rXMc
- https://www.youtube.com/watch?v=auq8h4Bas50&t=1s
Електронні ресурси
- http://k750.media/post/1757
- https://ranok.ictv.ua/ua/videos/shtuchnij-intelekt-mozhe-znishhiti-lyudstvo/
- https://dt.ua/TECHNOLOGIES/stiven-hoking-nazvav-shtuchniy-intelekt-zagrozoyu-lyudstvu-158230_.html
Центральноукраїнський державний педагогічний університет імені Володимира Винниченка