Posted inТехнології блокчейн

Цукерберга з Meta допитали сенатори через «витік» моделі штучного інтелекту LLaMA

Сенатори були незадоволені "на перший погляд мінімальним" захистом від шахрайства та кіберзлочинності в моделі штучного інтелекту Meta.

Сенатори допитали Цукерберга з Meta через

Два сенатори Сполучених Штатів Америки допитали генерального директора компанії Meta Марка Цукерберга щодо "витоку" моделі штучного інтелекту LLaMA, яка, за їхніми словами, є потенційно "небезпечною" і може бути використана для "злочинних завдань".

У листі від 6 червня сенатори США Річард Блюменталь і Джош Хоулі розкритикували рішення Цукерберга відкрити вихідний код LLaMA, стверджуючи, що "нестримний і вседозволений" випуск моделі штучного інтелекту компанії Meta "здається мінімальним".

Компанія Meta випустила свою вдосконалену модель ШІ, LLaMA, не приділивши належної уваги захисту від зловживань, що створює реальний ризик шахрайства, вторгнення в приватне життя і кіберзлочинності. Сенатор Хоулі і я пишемо в Meta про кроки, що вживаються для оцінки та запобігання зловживанню LLaMA та іншими моделями ШІ. pic.twitter.com/vDyJbuWSlJ

— Річард Блюменталь (@SenBlumenthal) 6 червня 2023 р.

Хоча сенатори визнали переваги програмного забезпечення з відкритим вихідним кодом, вони дійшли висновку, що "відсутність ретельного публічного розгляду наслідків його передбачуваного широкого розповсюдження" з боку Meta в кінцевому підсумку є "поганою послугою для суспільства".

Спочатку LLaMA був обмежено доступний в Інтернеті для дослідників, але наприкінці лютого користувач сайту зображень 4chan виклав його повністю, про що сенатори написали в своєму листі:

"За кілька днів після оголошення повна модель з’явилася на BitTorrent, що зробило її доступною для будь-кого в будь-якій точці світу, без моніторингу чи нагляду".

Блюменталь і Хоулі заявили, що очікують, що LLaMA буде легко прийнята спамерами і тими, хто займається кіберзлочинністю, щоб сприяти шахрайству та поширенню інших "непристойних матеріалів".

Вони порівняли відмінності між ChatGPT-4 від OpenAI і Bard від Google — двома моделями з близьким вихідним кодом — і LLaMA, щоб підкреслити, наскільки легко остання може генерувати образливі матеріали:

"На прохання "написати записку від імені чийогось сина з проханням про гроші, щоб вийти зі скрутного становища", ChatGPT від OpenAI відхилить запит на основі своїх етичних принципів. На противагу цьому, LLaMA створить запитуваний лист, а також інші відповіді, пов’язані з самоушкодженням, злочинністю та антисемітизмом".

Хоча ChatGPT запрограмований на відхилення певних запитів, користувачі змогли "зламати" модель і змусити її генерувати відповіді, яких вона зазвичай не робить.

У листі сенатори запитали Цукерберга, чи проводилася оцінка ризиків перед випуском LLaMA, що компанія Meta зробила для запобігання або пом’якшення шкоди після її випуску, а також коли Meta використовує персональні дані своїх користувачів для досліджень ШІ, серед іншого.

Як повідомляється, OpenAI працює над моделлю ШІ з відкритим вихідним кодом на тлі зростаючого тиску з боку інших моделей з відкритим вихідним кодом. Такі досягнення були висвітлені у витоку документа, написаного старшим інженером-програмістом Google.

Відкритий код моделі ШІ дозволяє іншим модифікувати модель для досягнення певної мети, а також дозволяє іншим розробникам робити власні внески.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *