Какво следва в света на изкуствения интелект

Следващата година ще постави на тест реалността в областта на генеративния изкуствен интелект, тъй като „отслабващият шум около технологията, нарастващите разходи, необходими за нейното управление, и засилващите се призиви за регулиране са признаци, че тя е изправена пред предстоящо забавяне, обясняват от една от водещите анализаторски агенции, цитирани от CNBC.

В годишния си обзор на прогнозите за бъдещето на технологичната индустрия през 2024 г. CCS Insight прави няколко прогнози за това какво предстои в сферата на изкуствения интелект – технология, която доведе до безброй новинарски заглавия, свързани както с обещания, така и с предупреждения.

Основната прогноза на CCS Insight за 2024 г. е, че генеративният изкуствен интелект „ще получи студен душ“, тъй като реалността на свързаните с него разходи, рискове и сложност „ще замени шумотевицата“.“В момента всички говорят за генеративен AI – Google, Amazon, Qualcomm, Meta и още много“, казва Бен Ууд, главен анализатор в CCS Insight, пред CNBC. „Ние сме големи защитници на AI. Смятаме, че той ще има огромно въздействие върху икономиката, смятаме, че ще има голямо въздействие върху обществото като цяло, смятаме, че е чудесен за производителността. Но шумотевицата около генеративния AI през 2023 г. е толкова голяма, че според нас той е прехвален и има много пречки, които трябва да се преодолеят, за да се пусне масово на пазара тази технолгия.“

Моделите на генеративен AI като ChatGPT на OpenAI, Google Bard, Claude на Anthropic и Synthesia, разчитат на огромна изчислителна мощ, за да работят със сложни математически модели, които им позволяват да определят какви отговори да предложат на подканите на потребителите.

Компаниите трябва да се сдобият с мощни чипове, за да работят с приложения за изкуствен интелект. В случая с генеративния AI това често са усъвършенствани графични процесори, или GPU, разработени от американския гигант за полупроводници Nvidia, към който се обръщат както големите компании, така и малките разработчици, за да изпълняват своите натоварвания.

Сега все повече компании, включително Amazon, Google, Alibaba, Meta и, както се съобщава, OpenAI, проектират свои собствени специфични чипове за AI, на които да изпълняват тези програми.

„Само разходите за внедряване и поддържане на генеративен AI са огромни“, казва Ууд. „За много организации, много разработчици, това просто ще стане твърде скъпо.“

Регламентът на ЕС за изкуствения интелект е изправен пред пречки

Анализаторите на CCS Insight също така прогнозират, че регулирането на изкуствения интелект в Европейския съюз – който често определя тенденциите, когато става въпрос за законодателство в областта на технологиите – ще срещне пречки.

Според тях ЕС все пак ще бъде първият, който ще въведе специфична регулация, но тя вероятно ще бъде преразглеждана и прекроявана „многократно“ заради скоростта на развитие на технолгогията.

„Законодателството няма да бъде финализирано до края на 2024 г., оставяйки индустрията да предприеме първоначалните стъпки при саморегулирането“, прогнозира Ууд.

Генеративният AI предизвика огромен шум тази година както от страна на технологични ентусиасти, така и от инвеститори в рисков капитал и заседателни зали, тъй като хората бяха запленени от способността му да създава нови материали по сходен с хората начин в отговор на текстови подкани. Технологията е използвана за създаване на всичко – от текстове на песни в стила на Тейлър Суифт до пълноценни университетски есета, припомня още CNBC.

Макар технологията да дава огромни надежди за потенциала на изкуствения интелект, тя също така предизвиква нарастваща загриженост от страна на правителствата и обществеността, че може да лиши много хора от работа. Затова и редица правителства призовават AI да бъде регулиран.

В Европейския съюз например се работи по приемането на Закона за AI – забележителен нормативен акт, който ще въведе основан на риска подход към AI. Някои технологии като лицевото разпознаване в реално време са изправени пред пълна забрана.

Разработчиците на големи инструменти за генеративен изкуствен интелект, базирани на езикови модели, като ChatGPT на OpenAI, трябва да ги представят за независима оценка, преди да ги пуснат на широката публика. Това предизвиква полемика сред професионалната общност, която смята изискванията за твърде рестриктивни.

Компаниите, стоящи зад няколко водещи AI модела, излязоха с изявление, че приветстват регулирането и че технологията трябва да бъде отворена за контрол и предпазни мерки, но техните идеи се различават.

През юни главният изпълнителен директор на OpenAI Сам Алтман призова за независим правителствен отговорник, който да се занимава със сложността на AI и лицензирането на технологията.

Google, от друга страна, заявява в коментарите си, представени на Националната администрация по телекомуникации и информация, че би предпочела „многопластов подход към управлението на AI с участието на множество заинтересовани страни“.

Предупреждения за съдържание от изкуствен интелект

Според CCS Insight скоро търсачката ще добави предупреждения за съдържанието, за да посочва на потребителите, че материалите, които гледат от определен уеб издател, са генерирани от изкуствен интелект, а не от хора, тъй като всеки ден се публикуват множество новини, генерирани от AI, които често са изпълнени с фактологични грешки и дезинформация. В същото време има много новинарски сайтове, чието съдържание е изцяло генерирано от софтуер с изкуствен интелект.

CCS Insight прогнозира, че подобно развитие ще подтикне Google да добави етикети към материали, които са произведени от AI – известни в индустрията като „воден знак“ – по същия начин, по който компаниите за социални медии въведоха информационни етикети към постове, свързани с COVID-19, за да се борят с дезинформацията за вируса.

Престъпления с изкуствен интелект

През следващата година CCS Insight прогнозира, че ще започнат да се извършват арести на хора, които извършват измами с идентификационни данни, базирани на AI.

Компанията твърди, че още през 2024 г. полицията ще извърши първия си арест на лице, което използва AI, за да се представи за някого – или чрез технология за синтез на глас, или чрез друг вид „дълбоки фалшификати“.

„Моделите за генериране на изображения и синтез на глас могат да бъдат персонализирани, за да се въплъщават в образа на целта, като използват данни, публикувани публично в социалните медии, което позволява създаването на рентабилни и реалистични „дълбоки фалшификати“, казва CCS Insight в прогнозите си. „Потенциалните въздействия са широкообхватни, включително увреждане на лични и професионални взаимоотношения, както и измами в банковото дело, застраховането и обезщетенията.“

 

Източник

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *