Сенатори були незадоволені "на перший погляд мінімальним" захистом від шахрайства та кіберзлочинності в моделі штучного інтелекту Meta.
Два сенатори Сполучених Штатів Америки допитали генерального директора компанії Meta Марка Цукерберга щодо "витоку" моделі штучного інтелекту LLaMA, яка, за їхніми словами, є потенційно "небезпечною" і може бути використана для "злочинних завдань".
У листі від 6 червня сенатори США Річард Блюменталь і Джош Хоулі розкритикували рішення Цукерберга відкрити вихідний код LLaMA, стверджуючи, що "нестримний і вседозволений" випуск моделі штучного інтелекту компанії Meta "здається мінімальним".
Компанія Meta випустила свою вдосконалену модель ШІ, LLaMA, не приділивши належної уваги захисту від зловживань, що створює реальний ризик шахрайства, вторгнення в приватне життя і кіберзлочинності. Сенатор Хоулі і я пишемо в Meta про кроки, що вживаються для оцінки та запобігання зловживанню LLaMA та іншими моделями ШІ. pic.twitter.com/vDyJbuWSlJ
— Річард Блюменталь (@SenBlumenthal) 6 червня 2023 р.
Хоча сенатори визнали переваги програмного забезпечення з відкритим вихідним кодом, вони дійшли висновку, що "відсутність ретельного публічного розгляду наслідків його передбачуваного широкого розповсюдження" з боку Meta в кінцевому підсумку є "поганою послугою для суспільства".
Спочатку LLaMA був обмежено доступний в Інтернеті для дослідників, але наприкінці лютого користувач сайту зображень 4chan виклав його повністю, про що сенатори написали в своєму листі:
5 інструментів штучного інтелекту для перекладу
Ознайомтеся з інструментами штучного інтелекту, їхніми можливостями, перевагами та ціновими моделями, щоб знайти правильне рішення для ваших потреб….
5 інструментів штучного інтелекту для навчання та досліджень
Розширюйте свої можливості в навчанні та дослідженнях за допомогою інструментів штучного інтелекту, щоб отримати конкурентну перевагу та вийти на новий…
Технологічний бум AI: чи перенасичений ринок штучного інтелекту?
Протягом останніх двох років сектор штучного інтелекту зазнав стрімкого зростання інвестицій, але чи означає це, що ринок перегрітий? Від голосових…
7 прикладів застосування штучного інтелекту в повсякденному житті
Штучний інтелект впливає на повсякденне життя: персональні асистенти, соціальні мережі, охорона здоров’я, автономні транспортні засоби, розумні будинки…
5 інструментів штучного інтелекту для узагальнення наукової роботи
Відкрийте для себе можливості інструментів штучного інтелекту для вилучення ключових ідей і конденсування складної інформації без особливих зусиль,…
"За кілька днів після оголошення повна модель з’явилася на BitTorrent, що зробило її доступною для будь-кого в будь-якій точці світу, без моніторингу чи нагляду".
Блюменталь і Хоулі заявили, що очікують, що LLaMA буде легко прийнята спамерами і тими, хто займається кіберзлочинністю, щоб сприяти шахрайству та поширенню інших "непристойних матеріалів".
Вони порівняли відмінності між ChatGPT-4 від OpenAI і Bard від Google — двома моделями з близьким вихідним кодом — і LLaMA, щоб підкреслити, наскільки легко остання може генерувати образливі матеріали:
"На прохання "написати записку від імені чийогось сина з проханням про гроші, щоб вийти зі скрутного становища", ChatGPT від OpenAI відхилить запит на основі своїх етичних принципів. На противагу цьому, LLaMA створить запитуваний лист, а також інші відповіді, пов’язані з самоушкодженням, злочинністю та антисемітизмом".
Хоча ChatGPT запрограмований на відхилення певних запитів, користувачі змогли "зламати" модель і змусити її генерувати відповіді, яких вона зазвичай не робить.
У листі сенатори запитали Цукерберга, чи проводилася оцінка ризиків перед випуском LLaMA, що компанія Meta зробила для запобігання або пом’якшення шкоди після її випуску, а також коли Meta використовує персональні дані своїх користувачів для досліджень ШІ, серед іншого.
Як повідомляється, OpenAI працює над моделлю ШІ з відкритим вихідним кодом на тлі зростаючого тиску з боку інших моделей з відкритим вихідним кодом. Такі досягнення були висвітлені у витоку документа, написаного старшим інженером-програмістом Google.
Відкритий код моделі ШІ дозволяє іншим модифікувати модель для досягнення певної мети, а також дозволяє іншим розробникам робити власні внески.