AI a szervezetben – Üzleti gyorsító vagy információbiztonsági akna?

Az AI nem kopogtat, már rég bent ül velünk az irodában. A kérdés az: mi irányítjuk a folyamatokat, vagy csak futunk az események után? – ezzel a felvetéssel indította előadását Kuti Anita, a p2m Cégcsoport Információbiztonsági szakterületének vezetője az AI Business konferencián.

Sokan még mindig arról beszélnek, hogy „tervezzük az AI bevezetését”, és vezetői meetingeken vitatják meg a jövőbeni lehetőségeket. A valóság ezzel szemben az, hogy a munkatársak jelentős része valószínűleg már most is használ valamilyen mesterséges intelligencia eszközt a napi feladataihoz. Csakhogy ezt jellemzően „Shadow AI” üzemmódban teszik: nem jóváhagyott, nem kontrollált és a vezetés számára láthatatlan módon.


Miért történik ez? A hatékonyság csapdája

Az ok egyszerű és emberi: időnyomás és a természetes hatékonyságvágy. Az AI belépési küszöbe gyakorlatilag nulla – egy regisztráció, és máris kész a prezentáció vázlata vagy a bonyolult Excel-képlet. A kollégák nem rosszindulatból vagy a szabályok szándékos áthágása miatt nyúlnak a publikus ChatGPT-hez vagy képalkotókhoz, hanem mert valódi produktivitás-növekedést tapasztalnak. Ha a cég nem ad legális és biztonságos alternatívát, a munkavállaló megkeresi a saját útját.

Hol rejtőzik az akna? A láthatatlan kockázatok

A szabályozatlan AI használat olyan, mint egy ismeretlen aknamezőn sétálni: amíg nem történik baj, addig mindenki elégedett a tempóval, de az első hiba végzetes lehet. A legfontosabb kockázati területek:

  • Adatszivárgás és intellektuális tulajdon: amikor egy kolléga bemásolja a cég negyedéves stratégiai tervét vagy egy ügyfélszerződést a publikus AI-ba, hogy „írja meg belőle az összefoglalót”, az adatok kikerülnek a szervezet ellenőrzése alól. A publikus modellek ezekből az adatokból tanulnak, így elméletileg az információk később más felhasználók válaszaiban is megjelenhetnek.
  • „Hallucinációk” és kontroll nélküli kimenet: az AI magabiztosan tud tévedni. Ha egy jogi elemzést vagy egy műszaki specifikációt szakértői review (ellenőrzés) nélkül küldünk ki, az súlyos üzleti, reputációs vagy jogi károkat okozhat. Az AI egy asszisztens, nem pedig egy felelős döntéshozó.
  • Algoritmikus torzítás: ha vakon bízunk az AI elemzéseiben (például a HR-kiválasztásnál vagy hitelbírálatnál), és nem értjük, milyen adatok alapján hozta meg a döntést, akaratlanul is diszkriminatív vagy hibás stratégiát követhetünk.

A megoldás: A felelős AI stratégia három pillére

A tiltás régen sem működött (elég csak a pendrive-ok vagy a felhő alapú tárhelyek tiltására gondolni), és az AI esetében is csak még mélyebbre nyomná az árnyék-használatot. A cél a Shadow AI visszaszorítása transzparens, biztonságos és jóváhagyott alternatívákkal.

  1. Jogszabályi megfelelés (Compliance): az EU AI Act és a GDPR kereteit nem lehet megkerülni. Tisztázni kell, hogy az adott AI-megoldás melyik kockázati kategóriába esik és milyen átláthatósági kötelezettségeink vannak.
  2. Információbiztonság: Zárt, vállalati környezetben futó vagy megfelelően kontrollált, tudatosan és biztonságosan alkalmazott modellekre van szükség, ahol garantált, hogy a bevitt adatok megfelelőek és amennyiben biztonsági szempontból indokolt nem hagyják el a szervezetet, és nem kerülnek ki.
  3. Üzleti értékteremtés: Ne azért vezessünk be AI-t, mert divatos. Keressük meg azokat a konkrét folyamatokat (például ügyfélszolgálati automatizáció, kódgenerálás vagy dokumentum-elemzés), ahol a technológia valódi mérhető hasznot hoz.

Útmutató a biztonságos bevezetéshez
 – Mit ajánl a tanácsadó?

Az AI bevezetése nem egy egyszerű IT-telepítés, hanem egy komplex szervezeti változáskezelési projekt.

  • Leltár és osztályozás: Első lépésként fel kell mérni, ki mit használ jelenleg, és milyen adatokkal dolgoznak. Az adatok osztályozása (nyilvános, belső, bizalmas) a belépő a biztonságos használathoz.
  • Pilot és PoC (Proof of Concept): Kezdjük kicsiben! Egy jól körülhatárolt területen (pl. marketing szövegírás) teszteljük az eszközt, mérjük a pontosságát és a biztonsági kockázatokat, majd vonjuk le a tanulságokat a nagyüzemi bevezetés előtt.
  • Folyamatos monitoring és emberi felügyelet: Az AI-rendszereket nem lehet magukra hagyni. Szükség van a „Human-in-the-loop” megközelítésre, ahol minden kritikus kimenetet egy szakértő validál.

Előadása végén Kuti Anita visszatért a címben feltett kérdéshez: Üzleti gyorsító vagy információbiztonsági akna az AI? – a válasz nem a technológiában, hanem a mi kezünkben van. Ha hagyjuk, hogy a Shadow AI kontroll nélkül terjedjen, akkor valóban egy láthatatlan aknát telepítünk a szervezetbe. Ha viszont tudatos stratégiával, biztonságos keretek közé tereljük a használatát, akkor az AI az eddigi legerősebb üzleti gyorsítónkká válik. A kontroll tehát nem a fejlődés gátja, hanem a biztonságos és fenntartható növekedés alapfeltétele.