Відмінності між версіями «Портфоліо до проекту "штучний інтелект" Бойко Аліни»

Матеріал з Вікі ЦДУ
Перейти до: навігація, пошук
Рядок 8: Рядок 8:
 
==Опис проблеми==
 
==Опис проблеми==
 
Небезпека для цифрового світу
 
Небезпека для цифрового світу
Можливості АІ стають більш потужними. У дослідженні визначається три основні напрями, для яких існує найбільше ризиків – цифрова безпека, фізичні об’єкти та політична сфера.
 
 
В чому полягає небезпека для цифрової сфери? Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.
 
 
 
  
 +
В чому полягає небезпека для цифрової сфери?
 +
Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.
 +
[[Файл:Файл:Hacker (1).jpg|міні]]
 
«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.
 
«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.
  
Рядок 22: Рядок 20:
  
 
У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.
 
У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.
 
+
[[Файл:Файл:Robot-thinks.jpg|міні]]
 
+
  
 
Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.
 
Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.
Рядок 32: Рядок 29:
 
AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.
 
AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.
  
 
Fabrice Coffrini/AFP/Getty Images
 
 
«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.
 
«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.
  
Рядок 40: Рядок 35:
  
 
По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.
 
По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.
 
 
  
 
По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.
 
По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.

Версія за 18:33, 19 листопада 2018


Тема статті

Опис проблеми

Небезпека для цифрового світу

В чому полягає небезпека для цифрової сфери? Штучний інтелект, потрапивши в руки зловмисників, може знизити перешкоди для проведення руйнівних хакерських атак.

«Розумні» технології можуть виявити критичні помилки програмного забезпечення та швидко вибирати потенційних жертв для фінансових злочинів. Більше того, АI може сприяти використанню соціальної інженерії як методу атаки. «Інформація з інтернету про ту чи іншу людину використовується для автоматичного створення шкідливих сайтів/посилань чи електронних листів, на які, швидше за все, відповідатиме потенційна жертва, адже вони надходитимуть від справжніх людей та імітуватимуть їхній стиль спілкування», – прогнозує звіт.

Подальший розвиток AI, на думку авторів дослідження, може призвести до того, що переконливі чат-боти зможуть долучати людей до тривалих діалогів, таким чином збільшуючи рівень довіри до себе, або навіть набувати вигляду реальних людей у відеочаті.

Роботи-вбивці Іншою небезпекою, яка з’являється на горизонті, є можливість атаки на фізичні об’єкти. Автори звіту попереджають, що AI може проникати у системи безпілотних автомобілів, управляти ними та призводити до аварій. Ще одним прикладом може бути використання «армій дронів», які за допомогою технології розпізнавання обличчя можуть вбивати людей, наголошується у дослідженні.

У звіті описується сценарій, в якому робот-прибиральник офісів на ім’я SweepBot, оснащений бомбою, проникає у міністерство фінансів Німеччини та «губиться» серед інших машин такого ж виробника. Робот-зловмисник спочатку поводить себе природньо – збирає сміття, підмітає коридори, доглядає за вікнами, аж поки програма для розпізнавання обличчя не зафіксує певну особу (міністра) і не запустить пусковий механізм.

Прихований вибуховий пристрій вбиває міністра та спричиняє поранення працівників, які стояли неподалік – так закінчується науково-фантастична історія-передбачення, викладена в звіті.

Фейк як нова реальність На політичному фронті штучний інтелект може використовуватися як інструмент спостереження, створення більш цілеспрямованої пропаганди та активного розповсюдження дезінформації. Держави можуть використовувати автоматизовані платформи спостереження для придушення інакомислення. Штучний інтелект може надсилати користувачам персоналізовані повідомлення, щоб вплинути на їхню поведінку під час виборів.

AI у руках зловмисників відкриватиме нові можливості для розповсюдження фейкових новин. Використання досягнень в області обробки зображень і звуку забезпечать створення високореалістичних відео з державними діячами, які нібито роблять провокаційні заяви. Більше того, створення та публікація фейкових новин може стати автоматизованим. Вже сьогодні роботи часто пишуть новини зі спортивних подій, а також роблять публікації на основі фінансових звітів.

«Виробництво та поширення високоякісних підробок дешевшає, а значить, такі «синтетичні мультимедіа» можуть скласти значну частку контенту засобів масової інформації та інформаційної екосистеми в цілому», – пишуть дослідники.

Вихід є? Автори звіту не пропонують точних сценаріїв дій, за яких штучний інтелект не зможе стати потужною зброєю в руках злочинців та маніпуляторів. Втім, аналітики дають кілька важливих порад, як протидіяти потенційній небезпеці.

По-перше, на думку авторів звіту, політики повинні співпрацювати з розробниками технологій та спільно визначити, де існують загрози неправомірного використання AI. По-друге, розробники технологій, усвідомлюючи «подвійне призначення» штучного інтелекту, мусять сприяти ефективному використанню технології та вживати заходів, що запобігають шкідливому використанню AI.

По-третє, автори звіту рекомендують працювати над розширенням кола зацікавлених сторін, які можуть сприяти попередженню та пом’якшенню ризиків неправомірного використання AI. Йдеться про підтримку громадянського суспільства, експертів з питань національної безпеки, дослідників AI та питань кібербезпеки, підприємств, що пропонують продукти з AI, етиків і так далі.

Автори доповіді визнають, що найкращим способом протидії AI є… AI. Водночас вони зауважують: “Захист, що базується на штучному інтелекті, не є панацеєю, особливо коли ми дивимося за межі цифрового світу».

Блог до проекту

Blogger або WordPress

Мультимедійна презентація

Google Диск

Календар подій проекту:

Google Календар (посилання на розклад роботи у проекті)

Опитування до проекту

Google Форми (посилання на опитування)

Фотоальбом до проекту

Google Фотознімки (посилання на альбом)

Спілкування між учасниками проекту

  • Чат
  • Форум
  • Спільнота на базі соціальних мереж
  • Skype
  • Telegram
  • Viber
  • Wiki-сторінка
  • Сайт
  • .....

Інформаційні ресурси

Друковані джерела

  1. ...
  2. ...
  3. ...

Відеоматеріали

  1. ...
  2. ...
  3. ...

Електронні ресурси

  1. ...
  2. ...
  3. ...


Центральноукраїнський державний педагогічний університет імені Володимира Винниченка