Американската компанија „Open-AI“ ја промени политиката за експлицитна забрана за употреба на нејзината технологија со вештачката интелигенција за „воени и армиски“ цели.
Делот за забраната е отстранет во новиот напис на страницата од 10 јануари, „за да биде појасно и да обезбеди повеќе насоки за конкретни услуги“, според описот на промените. Сепак, „Open-AI“ сѐ уште ја забранува употребата на своите „големи јазични модели“ (ЛЛМ) за сѐ што може да предизвика штета и ги предупредува луѓето да не ги користат неговите услуги за „развивање или користење оружје“.
- Со оглед на употребата на ВИ за таргетирање цивили во Газа, ова е критично време да се донесе одлука за отстранување на „армијата и војната“ од дозволивата политика на компанијата, истакна стручњакот за ВИ, Сара Мајерс Вест.
Последиците од промените допрва ќе се видат, но тие доаѓаат во време кога воените агенции ширум светот покажуваат сѐ поголем интерес за користење на ВИ.
Во овој миг, компанијата нема производ што директно би можел да убие некого или да предизвика физичка штета. Но, технологијата на „Open-AI“ може да се користи за задачи како што се создавање код и обработка на нарачки за купување работи што би можеле да се користат за убивање луѓе.
Зборувајќи за промената во формулацијата на политиката, портпаролот на „Open-AI“, Нико Феликс рече дека компанијата „се стреми да создаде збир на универзални принципи кои лесно се паметат и применуваат“, особено затоа што алатките на компанијата се користат на светско ниво од корисници кои сега исто така можат да градат ГПТ.
- Принципот „Не повредувај ги другите“ е премногу широк, но лесен за разбирање и важи во многу контексти. „Open-AI“ конкретно наведува „оружје“ и „повреди кај другите“ како јасни примери, појасни Феликс.
Сепак, претставникот не објасни дали забраната за „повредување на другите“ ги вклучува сите видови воени употреби надвор од развојот на оружје.