Штучний інтелект стрімко розвивається та приносить із собою безліч відкриттів і можливостей для наукових досліджень. Проте, цей стрімкий розвиток також породжує певні страхи щодо того, що ШІ може вийти з-під контролю та створити загрозу для людства. Доктор фізико-математичних наук та завідувач відділу теорії цифрових автоматів Інституту кібернетики імені В. Глушкова НАН України Олександр Летичевський у розмові з РБК-Україна поділився думкою щодо потенційних загроз від ШІ та необхідності контролю за його розвитком.
Летичевський висловив думку, що ШІ може становити загрозу для цивілізації, особливо якщо він активно втручатиметься в соцмережі та впливатиме на користувачів. За його словами, рівень втручання ШІ у повсякденне життя буде залежати від того, наскільки людство дозволить йому це робити. Якщо ШІ матиме змогу, наприклад, запускати ракети чи приймати важливі рішення на основі штучного інтелекту, то це може стати серйозною загрозою.
Однак вчений наголосив, що теорії про створення фантастичних роботів, що знищують все навколо, наразі залишаються на рівні фантазій.
Крім того, Летичевський висловив думку, що системи ШІ повинні бути ліцензовані та сертифіковані, аналогічно лікам чи атракціонам. Це дозволить забезпечити безпечність їх використання у різних галузях. Він підкреслив, що такий контроль необхідний, оскільки недостатньо треновані нейронні мережі можуть робити помилки, які ще будуть виправлятись у процесі вдосконалення технологій.
На питання про необхідність контролю над розвитком ШІ, вчений відповів, що такий контроль обов'язковий, особливо в сфері соцмереж, де ШІ може впливати на загальну свідомість. Він зауважив, що ШІ, такий як Chat GPT, вже починає здобувати довіру людей, але такі системи можуть викликати галюцинації та розповсюджувати вигадані факти.