Головні експерти в ІТ-галузі закликають зупитини розробку ШІ
Скандальний мільярдер Ілон Маск, співзасновник Apple Стів Возняк, ізраїльський історик Юваль Ной Харарі, та ще низка експертів у сфері ІТ закликають світову спільноту призупинити розробку потужних систем штучного інтелекту (ШІ), щоб дати час переконатися, що вони безпечні. Адже в іншому випадку людство може стикнутись з непередбачуваними наслідками.
Призупинити гігантські експерименти ШІ
В середу, 29 березня, понад тисячу провідних експертів підписали лист, в якому наголошують про необхідність ретельної перевірки всіх ризиків, з якими можуть стикнутися люди внаслідок розробки ШІ з рівнем інтелекту, що конкурує з людським.
Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими.
йдеться в листі
Всі вони закликають лабораторії штучного інтелекту негайно призупинити навчання систем штучного інтелекту, потужніших за GPT-4, щонайменше на шість місяців. Якщо ж компанії будуть не згідні, експерти вимагають втрутитись уряд, й накласти мораторій.
Ці шість місяців мають бути використані для розробки протоколів безпеки, систем управління штучним інтелектом і переорієнтації досліджень на те, щоб системи штучного інтелекту були більш точними, безпечними, «надійними та лояльними.
йдеться в листі
Раніше ми писали, що директор дослідницької компанії OpenAI Сем Альтман, яка презентувала ChatGPT повідомив, що значною мірою побоюється своєї розробки. Він визнав можливі небезпечні впровадження ШІ, які не дають йому спати вночі.
Nataliia Protsko, журналістка VPolshchi