1006
«Це занадто небезпечно»: Ілон Маск і глави технокомпаній закликають призупинити розробку ШІ
— Технології&Авто

Минулого тижня центр Future of Life Institute (FOLI) опублікував відкритий лист із закликом призупинити розробку продуктів на базі ШІ. На думку підписантів, ця технологія може спричинити глибокі трансформаційні зміни в суспільстві, як позитивні, так і ні.
Ознайомитися безпосередньо з самим листом можна тут. Серед підписантів є Ілон Маск, Стів Возняк, Ендрю Ян та інші. Загалом зі зверненням погодилися 1362 людини.
Це очільники та лінійні керівники технокомпаній, інженери та розробники, підприємці та фахівці у сфері IT. Усі вони вважають, що подальші «перегони» на цьому ринку небезпечні.
Чиатйте також: Інструменти для заробітку за допомогою ШІ
Інститут закликає всі компанії на півроку призупинити розробку і дослідження більш потужних систем, ніж GPT-4. Серед іншого, там ідеться, що ШІ являє собою «конкурента», який становить небезпеку для людського суспільства:
«Дедалі більш розвинений ШІ однозначно вплине на історію життя Землі. Ми повинні ретельно спланувати цей процес, а потім ретельно контролювати його, виділяючи відповідні ресурси» — йдеться в листі.
Довідка Finance.ua:
- GPT-4 було представлено 14 березня. За деякими оцінками, ця версія в 10 разів більш просунута, ніж оригінальна. Так, наприклад, чат-бот успішно склав досить суворі іспити за американською системою SAT, надавши 90% правильних відповідей. Цікаво, що Ілон Маск раніше заявив про плани зайнятися розробкою рішень на базі ШІ. Що зовсім не дивно з урахуванням тієї лихоманки, яка буквально охопила ринок;
- А ось засновник і колишній керівник Microsoft Білл Гейтс вважає, що штучний інтелект може суттєво допомогти людству. Але водночас, від нього є потенційна шкода. Про це повідомляє The Jerusalem Post. Зокрема, йдеться «про руйнівний вплив і порушення складних питань про робочу силу, правову систему, конфіденційність, упередженість тощо». ШІ притаманний допуск фактичних помилок. Додатковий фактор хвилювання — «загроза від людей, озброєних штучним інтелектом». На думку Гейтса, немає страховки від ситуації, коли ШІ вирішить, що люди становлять загрозу.
За матеріалами: incrypted
Поділитися новиною