«Це занадто небезпечно»: Ілон Маск і глави технокомпаній закликають призупинити розробку ШІ — Finance.ua
0 800 307 555
0 800 307 555

«Це занадто небезпечно»: Ілон Маск і глави технокомпаній закликають призупинити розробку ШІ

Технології&Авто
1062
«Це занадто небезпечно»: Ілон Маск і глави технокомпаній закликають призупинити розробку ШІ
«Це занадто небезпечно»: Ілон Маск і глави технокомпаній закликають призупинити розробку ШІ
Минулого тижня центр Future of Life Institute (FOLI) опублікував відкритий лист із закликом призупинити розробку продуктів на базі ШІ. На думку підписантів, ця технологія може спричинити глибокі трансформаційні зміни в суспільстві, як позитивні, так і ні.
Ознайомитися безпосередньо з самим листом можна тут. Серед підписантів є Ілон Маск, Стів Возняк, Ендрю Ян та інші. Загалом зі зверненням погодилися 1362 людини.
Це очільники та лінійні керівники технокомпаній, інженери та розробники, підприємці та фахівці у сфері IT. Усі вони вважають, що подальші «перегони» на цьому ринку небезпечні.

Чиатйте також: Інструменти для заробітку за допомогою ШІ

Інститут закликає всі компанії на півроку призупинити розробку і дослідження більш потужних систем, ніж GPT-4. Серед іншого, там ідеться, що ШІ являє собою «конкурента», який становить небезпеку для людського суспільства:
«Дедалі більш розвинений ШІ однозначно вплине на історію життя Землі. Ми повинні ретельно спланувати цей процес, а потім ретельно контролювати його, виділяючи відповідні ресурси» — йдеться в листі.

Довідка Finance.ua:

  • GPT-4 було представлено 14 березня. За деякими оцінками, ця версія в 10 разів більш просунута, ніж оригінальна. Так, наприклад, чат-бот успішно склав досить суворі іспити за американською системою SAT, надавши 90% правильних відповідей. Цікаво, що Ілон Маск раніше заявив про плани зайнятися розробкою рішень на базі ШІ. Що зовсім не дивно з урахуванням тієї лихоманки, яка буквально охопила ринок;
  • А ось засновник і колишній керівник Microsoft Білл Гейтс вважає, що штучний інтелект може суттєво допомогти людству. Але водночас, від нього є потенційна шкода. Про це повідомляє The Jerusalem Post. Зокрема, йдеться «про руйнівний вплив і порушення складних питань про робочу силу, правову систему, конфіденційність, упередженість тощо». ШІ притаманний допуск фактичних помилок. Додатковий фактор хвилювання — «загроза від людей, озброєних штучним інтелектом». На думку Гейтса, немає страховки від ситуації, коли ШІ вирішить, що люди становлять загрозу.
За матеріалами:
incrypted
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас