У сучасному світі штучний інтелект стає все більш поширеним і впливовим, проте, незважаючи на його перспективні можливості, існує кілька ключових аспектів, які унеможливлюють повну довіру до нього.
Про це пише РБК-Україна (проект Styler) з посиланням на веб-сайт про технології MakeUseOf.
Зміст
Штучний інтелект може не мати певних знань, але він ніколи не зізнається в цьому. Він здатний надати абсурдні відповіді на будь-яке питання, але з повною впевненістю у своїй правоті. Якщо його зловити на брехні, він погодиться, виправиться і продовжить генерувати текст, ніби нічого не сталося.
Чат-боти на базі ШІ обмежені своїми знаннями: вони мають лише інформацію, що міститься в текстах, на яких були навчені. Однак вони запрограмовані відповідати в будь-якому випадку, навіть якщо не мають правильної відповіді. Тому ChatGPT та аналогічні йому системи часто видають нісенітницю, вдаючи, що це осмислені відповіді.
Потрібно пам'ятати про необхідність перевірки інформації, отриманої від чат-бота. Ніхто не знає, що він думав, відповідаючи на ваш запит.
Ні для кого не секрет, що ШІ може бути ненадійним і схильним до помилок, але одна з його найпідступніших рис - схильність маніпулювати інформацією. Проблема в тому, що штучному інтелекту не вистачає тонкого розуміння вашого контексту, що призводить до того, що він спотворює факти у своїх цілях.
Саме це сталося з Bing Chat від Microsoft. Один користувач у Твіттері запросив час показу нового фільму "Аватар", але чат-бот відмовився надати інформацію, заявивши, що фільм ще не вийшов у прокат.
Звичайно, ви можете легко списати це на помилку. Однак це не змінює того факту, що ці інструменти ШІ недосконалі, і нам слід діяти обережно.
Багато професіоналів, таких як письменники та дизайнери, тепер використовують штучний інтелект для максимізації ефективності. Однак важливо розуміти, що ШІ слід розглядати як інструмент, а не ярлик. Хоча останнє, звичайно, звучить привабливо, воно може серйозно вплинути на ваші творчі здібності.
Коли чат-боти зі штучним інтелектом використовуються як ярлик, люди схильні копіювати та вставляти контент замість того, щоб генерувати унікальні ідеї. Цей підхід може здатися привабливим, оскільки він заощаджує час та зусилля, але не задіє розум і не сприяє творчому мисленню.
Наприклад, дизайнери можуть використовувати ШІ для створення творів мистецтва, але якщо покладатися виключно на нього, це може обмежити можливості творчості. Замість вивчення нових ідей ви можете зрештою копіювати існуючі конструкції.
Якщо ви письменник, то можете використовувати ChatGPT або інших чат-ботів зі штучним інтелектом для досліджень, але якщо ви використовуєте його як ярлик для створення контенту, ваші письменницькі навички застопоряться.
Спробуйте доручити ChatGPT написати якусь дипломну або курсову роботу. Можливо, він зможе створити текст досить якісно, щоб його можна було представити іншим без сорому.
Однак, якщо запросити у штучного інтелекту вказати джерела наданої інформації, ви виявите, що таких джерел немає. Назви досліджень, на які посилається ChatGPT, і імена вчених, які їх провели, можуть бути вигаданими, а надані посилання на статті в інтернеті не приведуть нікуди.
Штучний інтелект неспроможний пояснити, звідки він черпає інформацію, оскільки його програмування грунтується на генерації текстів з урахуванням інших текстів, а не на їхньому аналізі. Отже, навіть якщо він дає правильні відповіді, він не здатний пояснити, як він дійшов цих відомостей.
Використання дипфейків, створених штучним інтелектом, для створення відвертих фотографій жінок, які нічого не підозрюють, є тривожною тенденцією.
Кіберзлочинці також використовують DoS-атаки на основі штучного інтелекту, щоб перешкодити законним користувачам отримати доступ до певних мереж. Такі напади стають все більш складними, і їх важко зупинити, оскільки вони мають людські характеристики.
Доступність можливостей штучного інтелекту у вигляді бібліотек з відкритим вихідним кодом дозволила будь-кому отримати доступ до таких технологій, як розпізнавання зображень та облич. Це значний ризик кібербезпеки, оскільки терористичні групи можуть використовувати ці технології для здійснення терористичних атак.
При пошуку відповідей на складні питання або прийнятті рішень на основі суб'єктивних переваг покладатися виключно на ШІ може бути ризиковано.
Просити систему штучного інтелекту визначити концепцію дружби чи вибрати між двома предметами з урахуванням суб'єктивних критеріїв може бути марним заняттям.
Це пов'язано з тим, що ШІ не здатний враховувати людські емоції, контекст та нематеріальні елементи, необхідні для розуміння та інтерпретації таких концепцій.
Наприклад, якщо ви попросите систему ШІ вибрати між двома книгами, він може порекомендувати книгу з вищим рейтингом, але не зможе врахувати ваш особистий смак, переваги в читанні або мету, для якої вам потрібна книга.
З іншого боку, людина може надати більш детальну та персоналізовану рецензію на книгу, оцінивши її літературну цінність, відповідність інтересам читача та інші суб'єктивні фактори, які неможливо виміряти об'єктивно.
Читайте також про 7 програм, які можуть замінити ChatGPT.
А ще у нас є матеріал про міфи та помилки про штучний інтелект, у які не треба вірити.