09.03.2023 Views

Computerworld magazin 2023.03.08. LIV. évfolyam 05. szám

A Computerworld magazin 2023. március 8-án megjelent száma.

A Computerworld magazin 2023. március 8-án megjelent száma.

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

TECHNOLÓGIA<br />

Az LLM modellek<br />

összefüggőnek<br />

tűnő, de teljesen<br />

értelmetlen<br />

szöveges<br />

tartalmat is<br />

ugyanolyan<br />

könnyen<br />

létrehozhatnak...<br />

Ilyen használati eset lehet például a grafikus<br />

tervezés munkafolyamatainak felgyorsítása a rugalmasság<br />

fokozásával. A szövegből képi tartalmat<br />

generáló DALL-E vagy Midjourney mesterséges<br />

intelligenciájának alkotásaival például a szakmán<br />

kívül is sokan találkoztak már. A hivatásos tervezők<br />

azonban a generatív AI-t a munkafolyamat részeként<br />

az ötletelés, a változatkidolgozás felgyorsítására<br />

használhatnák a legjobban.<br />

A generatív AI a marketingesek kreatív erejét<br />

is növelheti az idő- és munkaigényes, de jobban<br />

automatizálható feladatok átvételével. A terület<br />

szakemberei ezzel a technológiával ugyanis egyetlen<br />

forrásból – például szövegírók által kidolgozott<br />

anyagból – gyorsan és nagy mennyiségben állíthatnak<br />

elő különböző műfajú és terjedelmű tartalmakat,<br />

amelyek következetesen a márka hangján<br />

szólítják meg az ügyfeleket.<br />

Nem utolsósorban új képességekkel bővítheti<br />

a generatív AI a kibervédelem eszköztárát is. A<br />

biztonsági szakemberek például behatolásteszteléshez<br />

hozhatnak létre szintetikus biometrikus<br />

adatokat ezzel a technológiával, vagy LLM modellek<br />

segítségével elemezhetik a vállalati levélforgalmat<br />

az adathalász és más manipulációs támadások<br />

észleléséhez.<br />

Koherens ostobaságok<br />

Helyes, ha a vállalatok már most lelkesen kísérletezni<br />

kezdenek a generatív AI munkafolyamatokba<br />

integrálásával, de arról sem szabad megfeledkezniük,<br />

hogy ezt ugyanolyan szabályozott, átlátható<br />

és követhető módon tegyék, ahogyan a tartalomgyártásban<br />

vagy más AI alkalmazások használatában<br />

egyébként is eljárnak, figyelmeztet a<br />

Forrester. Az OpenAI ChatGPT csevegőrobotjához<br />

hozzáférő tömegek első tapasztalatai is hamar<br />

megmutatták, hogy a sok hasznos és pontos eredmény<br />

mellett az LLM modellek összefüggőnek<br />

tűnő, de teljesen értelmetlen szöveges tartalmat<br />

is ugyanolyan könnyen létrehozhatnak.<br />

Ráadásul generatív mesterséges intelligenciával<br />

a felhasználók nemcsak akaratlanul hordhatnak<br />

össze sületlenségeket – mert például nem<br />

jártasak a témában, így az információtartalom<br />

hitelességét sem tudják ellenőrizni –, hanem<br />

szándékosan is létrehozhatnak ártalmas szövegeket<br />

például trollkodás vagy propagandagyártás<br />

céljából. Az üzletben nyilván komoly kárt tesz, ha a<br />

vállalat ilyen tartalmat enged gyártásba vagy tesz<br />

közzé bármilyen csatornán, felületen. Kulcsfontosságú<br />

lesz ezért, hogy a technológiát bevezető<br />

szervezetek a létrehozott tartalom ellenőrzéséhez<br />

szükséges felügyeleti környezetet is kialakítsák,<br />

és magabiztosan kiszűrjék az első ránézésre<br />

meggyőzően pontosnak tűnő, de valójában tévedésekkel<br />

teli vagy értelmetlen szövegektől.<br />

Ha a generatív AI megkönnyíti a szöveges<br />

tartalom előállítását, akkor hibázni is könnyebb<br />

vele, emlékeztet az elemző. A kockázatok csökkentéséhez,<br />

a koherens halandzsázás elkerüléséhez<br />

a szervezeteknek megfelelő folyamatokat<br />

és irányítási környezetet kell kialakítaniuk, hogy<br />

a mesterséges intelligenciával támogatott<br />

tartalomgyártásban is ugyanazt a pontosságot<br />

és integritást érjék el és tartsák fenn, amelyet<br />

minden más vállalati alkalmazástól elvárnak.<br />

Meglehet, a generatív AI körüli vállalati folyamatok<br />

összehangolása és szabályozása nehézkesnek<br />

tűnik – különösen ahhoz képest, hogy a<br />

technológia milyen gyorsasággal állít elő képet<br />

és szöveget –, a szervezetek egyedül így vehetik<br />

elejét a súlyos következményekkel járó melléfogásnak.<br />

Nem csupán a márka megítélését ronthatja<br />

ugyanis az ellenőrizetlenül közreadott, buta<br />

tartalom, egy egészségügyi szolgáltató tanácsadó<br />

csevegőrobotjának szakmai tévedése például<br />

árthat a betegeknek, és veszélyeztetésükön túl<br />

jogi bonyodalmakat is előidézhet.<br />

A generatív AI jövője fényes, de nem szabad,<br />

hogy ez elvakítsa a vállalatokat, hangsúlyozza<br />

a Forrester. A használati esetek köre folyamatosan<br />

bővül, a technológia az ügyfélszolgálattól<br />

kezdve a marketingen, a tartalomkészítésen és<br />

a termékfejlesztésen át az alkalmazottak támogatásáig<br />

és az ügyfelek kiszolgálásáig a vállalat<br />

minden területén előnyösen alkalmazható lesz.<br />

De miközben a szervezetek próbálgatni kezdik<br />

képességeit, fel kell mérniük azt is, hogy a generatív<br />

AI milyen hatással lehet működésükre, és ki<br />

kell dolgozniuk a technológia értelmes, eredményes<br />

és felelősségteljes alkalmazásához vezető<br />

stratégiát is.<br />

<strong>2023.03.08.</strong> | | 17

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!