Computerworld magazin 2023.03.08. LIV. évfolyam 05. szám
A Computerworld magazin 2023. március 8-án megjelent száma.
A Computerworld magazin 2023. március 8-án megjelent száma.
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
TECHNOLÓGIA<br />
Az LLM modellek<br />
összefüggőnek<br />
tűnő, de teljesen<br />
értelmetlen<br />
szöveges<br />
tartalmat is<br />
ugyanolyan<br />
könnyen<br />
létrehozhatnak...<br />
Ilyen használati eset lehet például a grafikus<br />
tervezés munkafolyamatainak felgyorsítása a rugalmasság<br />
fokozásával. A szövegből képi tartalmat<br />
generáló DALL-E vagy Midjourney mesterséges<br />
intelligenciájának alkotásaival például a szakmán<br />
kívül is sokan találkoztak már. A hivatásos tervezők<br />
azonban a generatív AI-t a munkafolyamat részeként<br />
az ötletelés, a változatkidolgozás felgyorsítására<br />
használhatnák a legjobban.<br />
A generatív AI a marketingesek kreatív erejét<br />
is növelheti az idő- és munkaigényes, de jobban<br />
automatizálható feladatok átvételével. A terület<br />
szakemberei ezzel a technológiával ugyanis egyetlen<br />
forrásból – például szövegírók által kidolgozott<br />
anyagból – gyorsan és nagy mennyiségben állíthatnak<br />
elő különböző műfajú és terjedelmű tartalmakat,<br />
amelyek következetesen a márka hangján<br />
szólítják meg az ügyfeleket.<br />
Nem utolsósorban új képességekkel bővítheti<br />
a generatív AI a kibervédelem eszköztárát is. A<br />
biztonsági szakemberek például behatolásteszteléshez<br />
hozhatnak létre szintetikus biometrikus<br />
adatokat ezzel a technológiával, vagy LLM modellek<br />
segítségével elemezhetik a vállalati levélforgalmat<br />
az adathalász és más manipulációs támadások<br />
észleléséhez.<br />
Koherens ostobaságok<br />
Helyes, ha a vállalatok már most lelkesen kísérletezni<br />
kezdenek a generatív AI munkafolyamatokba<br />
integrálásával, de arról sem szabad megfeledkezniük,<br />
hogy ezt ugyanolyan szabályozott, átlátható<br />
és követhető módon tegyék, ahogyan a tartalomgyártásban<br />
vagy más AI alkalmazások használatában<br />
egyébként is eljárnak, figyelmeztet a<br />
Forrester. Az OpenAI ChatGPT csevegőrobotjához<br />
hozzáférő tömegek első tapasztalatai is hamar<br />
megmutatták, hogy a sok hasznos és pontos eredmény<br />
mellett az LLM modellek összefüggőnek<br />
tűnő, de teljesen értelmetlen szöveges tartalmat<br />
is ugyanolyan könnyen létrehozhatnak.<br />
Ráadásul generatív mesterséges intelligenciával<br />
a felhasználók nemcsak akaratlanul hordhatnak<br />
össze sületlenségeket – mert például nem<br />
jártasak a témában, így az információtartalom<br />
hitelességét sem tudják ellenőrizni –, hanem<br />
szándékosan is létrehozhatnak ártalmas szövegeket<br />
például trollkodás vagy propagandagyártás<br />
céljából. Az üzletben nyilván komoly kárt tesz, ha a<br />
vállalat ilyen tartalmat enged gyártásba vagy tesz<br />
közzé bármilyen csatornán, felületen. Kulcsfontosságú<br />
lesz ezért, hogy a technológiát bevezető<br />
szervezetek a létrehozott tartalom ellenőrzéséhez<br />
szükséges felügyeleti környezetet is kialakítsák,<br />
és magabiztosan kiszűrjék az első ránézésre<br />
meggyőzően pontosnak tűnő, de valójában tévedésekkel<br />
teli vagy értelmetlen szövegektől.<br />
Ha a generatív AI megkönnyíti a szöveges<br />
tartalom előállítását, akkor hibázni is könnyebb<br />
vele, emlékeztet az elemző. A kockázatok csökkentéséhez,<br />
a koherens halandzsázás elkerüléséhez<br />
a szervezeteknek megfelelő folyamatokat<br />
és irányítási környezetet kell kialakítaniuk, hogy<br />
a mesterséges intelligenciával támogatott<br />
tartalomgyártásban is ugyanazt a pontosságot<br />
és integritást érjék el és tartsák fenn, amelyet<br />
minden más vállalati alkalmazástól elvárnak.<br />
Meglehet, a generatív AI körüli vállalati folyamatok<br />
összehangolása és szabályozása nehézkesnek<br />
tűnik – különösen ahhoz képest, hogy a<br />
technológia milyen gyorsasággal állít elő képet<br />
és szöveget –, a szervezetek egyedül így vehetik<br />
elejét a súlyos következményekkel járó melléfogásnak.<br />
Nem csupán a márka megítélését ronthatja<br />
ugyanis az ellenőrizetlenül közreadott, buta<br />
tartalom, egy egészségügyi szolgáltató tanácsadó<br />
csevegőrobotjának szakmai tévedése például<br />
árthat a betegeknek, és veszélyeztetésükön túl<br />
jogi bonyodalmakat is előidézhet.<br />
A generatív AI jövője fényes, de nem szabad,<br />
hogy ez elvakítsa a vállalatokat, hangsúlyozza<br />
a Forrester. A használati esetek köre folyamatosan<br />
bővül, a technológia az ügyfélszolgálattól<br />
kezdve a marketingen, a tartalomkészítésen és<br />
a termékfejlesztésen át az alkalmazottak támogatásáig<br />
és az ügyfelek kiszolgálásáig a vállalat<br />
minden területén előnyösen alkalmazható lesz.<br />
De miközben a szervezetek próbálgatni kezdik<br />
képességeit, fel kell mérniük azt is, hogy a generatív<br />
AI milyen hatással lehet működésükre, és ki<br />
kell dolgozniuk a technológia értelmes, eredményes<br />
és felelősségteljes alkalmazásához vezető<br />
stratégiát is.<br />
<strong>2023.03.08.</strong> | | 17