Працівники OpenAI та Google DeepMind застерегли про ризик ...
Працівники OpenAI та Google DeepMind застерегли про ризик «вимирання людства» через ШІ
У відкритому листі вони згадали про загрози від поширення дезінформації, втрати контролю над системами ШІ та поглиблення нерівності.
Група колишніх і теперішніх працівників OpenAI та Google DeepMind висловила занепокоєння щодо ризиків, пов'язаних зі стрімким розвитком штучного інтелекту. Серед іншого вони згадали про загрозу «вимирання людства», повідомляє Reuters.
У відкритому листі 11 колишніх та нинішніх співробітників OpenAI, а також колишній та нинішній працівники Google DeepMind зазначили, що фінансові мотиви компаній, які займаються розвитком ШІ, перешкоджають ефективному контролю над цим процесом.
«Ми не віримо, що спеціальні структури корпоративного управління достатні для зміни цієї ситуації», — заявили автори листа.
Вони попереджають про ризики нерегульованого ШІ, починаючи від поширення дезінформації до втрати контролю над незалежними системами ШІ та поглиблення існуючої нерівності, що може призвести до «вимирання людства».
Дослідники виявили, що ШІ-генератори зображень від OpenAI та Microsoft і надалі створюють зображення з дезінформацією, пов'язаною з виборами, незважаючи на зусилля компаній проти такого контенту.
Автори листа заявляють, що компанії-розробники ШІ мають «слабкі зобов'язання» перед урядами країн щодо інформування про можливості та обмеження своїх систем. Вони вважають, що на ці фірми не можна покладатися, щоб вони добровільно ділилися цією інформацією.
Група закликала компанії, що займаються ШІ, сприяти можливості для своїх нинішніх та колишніх працівників висловлювати занепокоєння щодо ризиків ШІ і не застосовувати угоди про конфіденційність, які забороняють критику.
Як пише Reuters, цей відкритий лист є черговим, який висловлює занепокоєння щодо безпеки технології генеративного ШІ, яка може швидко та дешево створювати текст, зображення та аудіо, схожі на людські.
Нагадаємо, ще в березні 2023 року гендиректор компаній SpaceX і Twitter Ілон Маск, співзасновник Apple Стів Возняк та інші фахівці підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства». Зокрема, Стів Возняк заявив, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Возняк каже, що боїться, що технологію штучного інтелекту використають «погані хлопці».
Один з творців цієї технології Джеффрі Гінтон вважає, що штучний інтелект може нести для людства «більш нагальну» загрозу, ніж зміна клімату. Раніше він оголосив, що йде зі своєї посади в Google для того, щоб вільно говорити про ризики, пов'язані з ШІ.
Згодом гендиректор OpenAI Сем Альтман, керівники Microsoft і Google Джеффрі Гінтон і Йошуа Бенжіо разом з експертами й професорами підняли питання «загрози вимирання людства через ШІ» і закликали законотворців розглядати цю загрозу на рівні з ризиками від пандемій і ядерної війни.
В листопаді 2023 року у Великій Британії опублікували перші у світі глобальні рекомендації щодо безпечної розробки штучного інтелекту. Їх схвалили загалом 18 країн. Нещодавно Україна долучилася до спільної Міністерської заяви 27 країн про потребу міжнародної співпраці для реагування на швидкий розвиток технологій ШІ та ризиків, пов’язаних з цим.
Фото: Pexels