Според новите европски начела за развој на нова технологија, компаниите коишто работат со вештачка интелигенција мора да воспостават механизми на одговорност за да спречат злоупотреба. Проектите за вештачка интелигенција ќе треба да бидат под надзор на луѓе и треба да бидат транспарентни, да имаат сигурни и прецизни алгоритми и да подлегнат на правила за заштита на приватноста и на податоците, наведуваат од ЕУ.

Тие начела може да се остварат на база на Стратегијата за вештачка интелигенција од април 2018 година, која, меѓу другото, предвидува зголемување на јавните и приватните инвестиции во таа технологија до најмалку 20 милијарди евра годишно во наредните десет години.

Европската иницијатива е составен дел од глобалната расправа за тоа дали тие компании мора првин да ги почитуваат етичките правила над бизнис интересите и кога, како и колку строги мора да бидат регулаторите во однос на новите проекти за да не се загрозат иновациите.

„Етичката димензија на вештачката интелигенција не е луксуз ниту додаток. Нашето општество може до максимум да го искористи потенцијалот на таа технологија само ако има доверба во неа“, велат од ЕУ.

Вештачката интелигенција може да се користи во широк спектар сектори како што се здравството, потрошувачката на енергија, безбедноста на автомобилите, земјоделството, климатските промени и управувањето со финансиски ризици. Исто така, може да помогне за откривање измами и закани во сајбер безбедноста и да им овозможи на безбедносните агенции ефикасна борба против криминалот.

Паралелно со тоа, вештачката интелигенција носи нови предизвици за иднината на пазарот на труд и отвора бројни правни и етички прашања. Минатата година Европската комисија ангажираше 52 експерти од академската заедница, индустриски здруженија и компании, вклучувајќи ги Google, SAP, Santander и Bayer, за да помогнат во исцртувањето на новите начела.

Што мислиш ти?
  • Ви се допаѓа оваа вест? Препорачајте ја на Вашите пријателите преку следниве сервиси:
  • Mail