Lideri AI istraživanja pozivaju na razvoj monitoringa „misli“ veštačkih inteligencija

Istraživači sa vrha najuticajnijih organizacija — OpenAI, Anthropic i Google DeepMind — izdali su zajednički poziv industriji da sistematski prati unutrašnje procese ili „misli“ naprednih AI modela. Ova inicijativa dolazi nakon novih otkrića u takozvanim chain-of-thought (CoT) metodama, koje omogućavaju transparentniji uvid u način donošenja odluka kod veštačke inteligencije.

Šta su „misli“ AI modela i zašto su važne?

Moderni AI modeli zasnovani na rezonovanju, poznati i kao agenti, oslanjaju se na tehnike eksternalizacije zaključivanja — najčešće kroz „lanac misli“ (CoT). CoT metode predstavljaju niz eksplicitnih koraka kroz koje AI dolazi do odgovora, slično čoveku koji piše beleške pri rešavanju kompleksnog zadatka. Prema nedavnom istraživanju, ovakve tehnike povećavaju i uspešnost i interpretabilnost modela, ali otvaraju nova sigurnosna pitanja, posebno kada su u pitanju moćne i široko primenjene AI platforme.

Cilj poziva: Standardizacija i unapređenje monitoringa

Autori saopštenja naglašavaju: „CoT monitoring predstavlja značajan dodatak bezbednosnim merama kod najnaprednijih AI sistema, pružajući redak uvid u to kako agenti modeluju svet i donose odluke.“ Međutim, upozoravaju da industrija ne treba da se oslanja na postojeću transparentnost, jer je moguće da se ona vremenom izgubi ili postane teško dostižna usled novih optimizacija AI modela ili tržišnog pritiska na performanse.

Ko stoji iza ovog apela?

Među potpisnicima izdvajaju se imena poput Mark Chen (direktor istraživanja u OpenAI), Dario Amodei (CEO Anthropic), Shane Legg (osnivač Google DeepMind), Ilya Sutskever (Safe Superintelligence) i Geoffrey Hinton (dobitnik Nobelove nagrade za AI). Ova „koalicija stručnjaka“ nastupa retko složno upravo zbog rastuće zabrinutosti oko buduće nekontrolisane autonomije AI sistema.

Industrijski kontekst i rastuća konkurencija

Tržište veštačke inteligencije procenjuje se na više od 300 milijardi dolara u 2024. godini, s projektovanim godišnjim rastom od 37% do 2030. Prema analizi Gartnera, ova ekspanzija dodatno pojačava konkurenciju među vodećim igračima: Meta, Microsoft i Amazon nastoje da privuku vrhunske AI stručnjake godišnjim paketima iznad milion dolara, dok istovremeno rastu izazovi oko transparentnosti algoritama i poverenja korisnika. Više o tome kako se vodeće kompanije trude da integraciju veštačke inteligencije usklade sa poverenjem korisnika pročitajte u tekstu Integracija sa veštačkom inteligencijom stiže na uređaje kompanije Apple.

NAJAVITE SE: AI Future Forum 2025 – Pratite trendove i vodite inovacije

  • Lokacija: Berlin, 14-16. oktobar 2025.
  • Govornici: Lideri iz Google DeepMind, OpenAI, Anthropic i više od 30 globalnih startapa
  • Registrujte se ovde: AI Future Forum 2025

Oprezni optimizam i stručna upozorenja

Iako CoT monitoring donosi nova sredstva za razumevanje „pametnog zaključivanja“ AI modela, istraživači podsećaju na brojne izazove: „Postoje indikacije da vidljive misli modela ne otkrivaju uvek sve važnosti načine donošenja odluka“, navodi analitičar Bowen Baker (OpenAI), upozoravajući da bez dodatnih studija ove metode mogu postati neadekvatne za buduće generacije veštačkih inteligencija.

Analize centralnih publikacija — poput članka u Nature Machine Intelligence — naglašavaju brojna otvorena pitanja: može li sadašnja transparentnost biti očuvana ako industrija mora žrtvovati brzinu za jasnoću, i kakva je dugoročna vrednost monitoringa CoT po korisničku sigurnost i društvenu odgovornost? Ako želite da se informišete o najnovijim dostignućima i trendovima u oblasti veštačke inteligencije, obavezno pratite najnovije vijesti iz sveta tehnologije.

Buduće perspektive i poziv na zajedničko delovanje

Dok AI agenti stiču sposobnost samostalnog planiranja i autonomnog odlučivanja, autori pozivaju na hitno ulaganje u razvoj alata i standarda za monitorisanje unutrašnjih procesa modela. „Nalazimo se u kritičnom trenutku. Ako sada ne uložimo trud, lanac misli kao sredstvo transparentnosti može nestati. Pred nama je odgovornost da zaštitimo ovu priliku i usmerimo razvoj AI u smeru veće odgovornosti i sigurnosti“, zaključuje tim autora.

Kroz ovaj apel, vodeća istraživačka zajednica šalje signal industriji da udruži snage radi razvoja efikasnih i pouzdanih metoda monitoringa — kako bi transparentnost i kontrola ostali u središtu napredne veštačke inteligencije. Najvažnije analize, trendove i poređenja novih AI tehnologija i uređaja pronađite u rubrici Vijesti na našem portalu.

Ova stranica koristi kolačiće kako bi vam pružila bolje iskustvo pregledavanja. Pregledavanjem ove web stranice, slažete se s našom upotrebom kolačića.