Az AI és a felsővezetők kapcsolata 2024-ben

QR kód, ne légy áldozat

„2 nap alatt írtam 160 oldalas könyvet”
Emberrel összemérhető AI 2040-re? 50% az esély rá.

Így kezdődött az Erst & Young eseménye, melynek témája az AI és a felsővezetők kapcsolata volt.

De mire is használhatja az AI-t egy vállalat, illetve egy felső vezető?

customer content generation: tartalomgyártás, akár képek, rövid posztok, hosszabb blogok, hamarosan reklám videók formájában. Mindenzt napi szinten, amire még heti tervet is készít és csak követni kell.

intentional programming: csak diktáljuk és készül a program. Ez még azért elég gyenge lábakon áll, hisz az üzleti logikát is ismerni kell és a szoftverek felépítését is át kell látni

image / video analysis: erre jó példa egy előadás, ahol az arcok élőben vizsgálata lehetővé teszi az előadó számára, hogy az AI által kiértékelt érdeklődés tükrében változtasson az előadás menetén, témáján, sebességén akár.

Business specific knowledge base: a szervezet eddig összegyűlt adatait és megszerzett értékes tudását egyfajta chatrobotként használhatjuk, akár házon belül onboarding célra, akár ügyfélszolgálati célra.

Business insights: automatizált konkurencia kutatás. Ki, miben jobb, mint a mi cégünk termékei és szolgáltatásai.
Amint meghatározott jellegű és mértékű eltérést tapasztal, jelezzen és akár tegyen rá javaslatot is.

customer service: értékeld a kapott ügyfél bejelentéseket, kategorizáld azokat és állítsd össze a választ, amit ki is küldesz.

Felsővezető

S mit kell megoldani?

nem zöld a mögöttes tech: óriási erőforrás igénnyel rendelkező gépek dolgoznak a háttérben és szolgálnak ki minket.
Ezek a gépek, amikor beindulnak, szuper nagy energia igényt támasztanak és ez a legkevésbé sem a környezetvédelemről szól.

jogi licenszek (arcok, zenék, doksik): mit használhatunk fel és mit nem? „csak találtam a neten és tanítom vele a nagy nyelvi modellt”
Ez pl. komoly jogi vitákat eredményez, erről előre kell gondolskodni tehát.

etikai szabálykönyv: mit szabad és mit nem a gépi tanuló rendszernek megtennie az ember kérésére.
Itt a fő probléma, hogy nincs egyetértés, tehát más szabálykönyve lesz Kínának és Amerikának.
Vajon ez átjárható lesz, vagy ami az egyik országban legális, az a másikban komoly büntetéssel jár majd?

adatmérgezés / részrehajlás kérdése: az AI annyira okos, amennyire sok és megfelelő adatokkal tanították.
S mi van akkor, ha a tanító adatok hibásak, vagy szándékosan „megmérgezték” azokat.
A mérgezés itt egyenlő fals adatok rendszerbe táplálásával, pl. egy választás során, hogy a bűnöző csoportok által elvárt eredmény szülessen.

adathiány (szintetikus adatok): az AI éhes.
Maximum 2025-re egyszerűen elfogynak az ember által eddig előállított adatok, amivel a gépet taníthatjuk.

S mégis hogyan lesz akkor jobb a rendszer?
Leginkább úgy, hogy mesterséges adatokat állítunk elő a meglévő valós adatok alapján. pl. ha van 1000 valódi emberi arc, akkor abból állítsunk elő egy klón algoritmussal még 10.000 nem valódi arcot.

Így máris 11.000 arcképpel taníthatjuk az AI algoritmust, hogy akár érzelmeket ismerjen fel minél ügyesebben.

tartalmi megfelelőség: mennyire bízhatunk az előállított adatok minőségében?
Ha túlzottan bízunk benne, akár helytelen döntéseket hozhatunk, illetve ha ezekkel a megkérdőjelezhető adatokkal tanítjuk tovább a saját gépeinket, az komoly porszem lesz a gépezetben…

melyik eszközt mire használjuk: túl nagy a választás lehetősége és túl sok az új eszköz akár napi szinten.
Nem tudjuk emiatt, hogy mikor mit használjunk.
Amiatt a specializált IT szakember egyre többször lesz meghívva a vezetői ülésekre.
No persze meg is kell érteni, amit mond, ez nem mindig triviális.

leszakadó populáció: mi lesz azokkal az emberekkel, akiknek nem lesz munkájuk, mert a gépi tanuló eszközök már több szempontból jobban tudják ellátni azt a bizonyos feladatot?
Pl. megoldás lehet az univerzális alapfizetés vajon?

BringYourOwnAI: ez az a jelenség, amikor a munkavállaló egyszerűsíteni akarja a saját feladatait és hozza magával a közkedvelt AI eszközeit.

Ez még jó lenne, ám a munka hatékonyság érdekében céges, vállalati adatokat táplál bele.

Ezzel gyakorlatilag jóindulattal ugyan, de kényes adatokat szivárogtat ki.

A legvégén egy úr tette fel a nagy kérdést:
Vajon az eszközt (megoldást, szoftvert, hardvert) amit ma elkezdünk használni, van rá garancia, hogy 5 év múlva is velünk lesz?

Senki sem tudja megmondani, de ha kiesik 5 ilyen eszköz, megjelenik helyette 12 másik.

Már „csak” képben kell lenni ezekkel.

Ha ötleted vagy kérdésed van, itt megtalálsz: pedro@amtech.hu

Szekrényi Péter – Pedro
tulajdonos, IT mérnök
AMtech Rendszerház

www.amtech.hu
https://amtech.hu/egyeb/

Bár az AI sokoldalúan használható azért még sokáig szakemberek szükségesek a felügyeletére:

https://blog.amtech.hu/wp-admin/post.php?post=991&action=edit

MI az az adatmérgezés és hogyan védekezzünk ellene? A 2% problémája

Na de hogy érint minket az adatmérgezés?

Egy nem is olyan régen megtörtént eset:

Anno 2016, a Microsoft büszkén veti a nép elé az új chatbotot és várja a reakciókat.
Azonnal több 1000 ember repül rá és faggatják, beszélnek hozzá, illetve beszéltetik is.

Nagyjából 5 óra leforgása alatt az első kedvesnek tűnő chatbot egy arrogáns
diktátor stílusában kezd értekezni a világról és súlyos véleményt alkot a benne lévő emberekről is.

A Microsoft összehívja a válságstábot, majd dönt: azonnal lekapcsolják a rendszert és visszavonulót fújnak.

No de mi történt pontosan? A válasz: ADATMÉRGEZÉS!

Adatmérgezés

A CHATBOT a gmail levelezéseken edződött és azzal tanították az életszerű társalgásra.
Viszont erről valakik tudomást szereztek (ehhez belső ember is kellett) és azokra az email címekre, – amit a szoftver is figyelt és tanult – nagy mennyiségben kezdtek küldeni uszító és szélsőséges levelek sokaságát.

Ezzel gyakorlatilag “megmérgezték” szándékosan a tanító adatokat a háttérben.

Csak gondolj bele:ha egy AI alapú szoftvert 10.000 kutya képével arra tanítok, hogy ismerje fel a kutyákat a jövőben, akkor kb. 82%-os valószínűséggel meg is fogja tenni azt szinte bármilyen ebet is lát (2024 Q2 adat)

Ám ha csak 2%-a (!) ezeknek a kutya képeknek macskát tartalmaz, máris ez a kutya felismerő képesség 68%-ra csökken!

A mesterséges intelligencia (MI) adatmérgezés egy igen alattomos támadás az MI rendszerek ellen, ahol rosszindulatú szereplők meghamisítják a tanító adatokat a háttérben.

Olyan, mintha rossz információval etetnénk egy tanulási modellt, ami eltorzítja a döntéshozó képességét.

Íme egy áttekintés, hogy mit jelent az adatmérgezés az MI-ben.

Hogyan működik:

 A támadók becsempésznek szennyezett adatokat: Ez magában foglalhat új
adatok bevezetését, vagy meglévők módosítását vagy akár fontos adatok
törlését is.

 Az MI modell be van csapva: A mérgezett tanító adatok elfogyasztásával a
modell hibás mintákat és torzításokat tanul meg. Pl: “vezető pozícióba csak fehér férfi kerülhet” – ez valós példa.

 Rossz döntések: Amikor az MI később előrejelzéseket vagy döntéseket hoz,
azok a mérgezett adatok alapján akár erősen torzulnak.

A támadások típusai:

 Elérhetőségi támadások: Ezek arra irányulnak, hogy az egész MI modellt
összeomlasszák azzal, hogy szemét információval etetik, ami pontatlan
kimenetelekhez vezet. A rendszer használhatatlan lesz.

 Célzott támadások: Itt a támadók gondosan befecskendeznek bizonyos
adatokat, hogy a modell kimenetelét egy bizonyos módon manipulálják,
például kockázatos hitelfelvevőknek adnak jóváhagyást.

Védekezés az adatmérgezés ellen:

 Tanítás előtt/közben: A tanító adatok forrásának és pontosságának biztosítása

 Működés közben: Az MI modell teljesítményének folyamatos monitorozása a
hirtelen változások vagy torzítások észlelésére utalhat adatmérgezésre.

 

Ha ötleted vagy kérdésed van – nem csak a profilozással kapcsolatban, itt megtalálsz: pedro@amtech.hu

Szekrényi Péter – Pedro
tulajdonos, IT mérnök
AMtech Rendszerház
www.amtech.hu

Tanulj Pedrotol

Ha több tech tartalmú cikket olvasnál itt megteheted:
Az AI 5 felhasználási területe