Umělá inteligence (AI) se v posledních letech dostává do popředí zájmů velkých firem jako revoluční technologie, která má potenciál změnit průmysl a transformovat způsob, jakým pracujeme a žijeme.
Autorem textu je Tomáš Kozák, data scientist EY
I když je zřejmé, že AI jako technologie je a bude výrazně transformativní, je důležité vzít v úvahu jak pozitivní, tak i negativní aspekty jejího nasazování a využívání ve velkých firmách. Kromě obecných a na první pohled zřejmých přínosů jako například automatizace, akcelerace a škálovatelnost lidských kognitivních a senzo-motorických schopností je zapotřebí se pozastavit, ohlédnout se a uvědomit si specifické hmatatelné využití strojového učení a pozitivní přínosy pro firmy, které je kontinuálně a systematicky integrují do svých řešení.
Využití strojového učení, jakožto nejrozšířenější podoblasti umělé inteligence, ve velkých firmách by se dalo jednoduše rozdělit na oblasti strukturovaných a nestrukturovaných dat. Využití strojového učení nad strukturovanými daty je možné ilustrovat hned na několika konkrétních případech počínaje oblastí Customer Analytics, přes rekomendační systémy, modelování rizika až po detekci podvodních aktivit. Samozřejmě v kategorii využití strojového učení nad strukturovanými daty existuje řada dalších příkladů s velkým přínosem a skutečnou přidanou hodnotou pro velké firmy.
Minimálně stejně důležitou kategorií je i oblast využití strojového učení nad nestrukturovanými daty jako například zpracování přirozeného jazyka a počítačové vidění. Vzhledem k tempu vývoje modelování jazyka v posledních letech a měsících, se dále zaměříme na přínosy a přidanou hodnotu pramenící z této subkategorie využití strojového učení nad nestrukturovanými daty, a to zejména na možné využití a přínosy generativních předtrénovaných transformerů (GPTs).
Jak fungují GPTs…
Jak si vůbec představit generativní předtrénovaný transformer? Značně zjednodušeně se architektura transformer modelů GPT skládá z dekóderu, který generuje výstupní sekvenci založenou na skrytých stavech z předešlých výstupů. Jinými slovy, GPT využívá architekturu dekóderu na zprocesování vstupního textu a následnou generaci výstupního textu. Architektura transformer modelů umožňuje modelovat jak krátkodobé dependence jazyka v částech architektury s lokálním procesingem, tak i dlouhodobé a kontextuální dependence jazyka. GPT modely jsou trénovány samo-supervizovaným způsobem na obrovských objemech textových dat.
Zjednodušeně je objektivem trénovacího procesu naučit se v každém bodě v čase generovat co možná nejvhodnější další slovo v sekvenci na základě předešlých slov, které se vyskytují v dané sekvenci do času predikce. GPT specificky používá “left-to-right” autoregresní modelovací objektivum, kde je model trénován správně predikovat následující element sekvence na základě předešlých elementů sekvence prostřednictvím jednosměrné transformer architektury procesující text od začátku k jeho konci.
Po této iniciální předtrénovací fázi mohou být GPT modely laděné pro různé specifické úkoly. Ladění GPT modelů spočívá v dotrénování modelu na datasetu specifickém pro daný úkol a v minimalizaci chybové funkce specifické pro daný úkol. Následně jsou v specifických konverzačních případech (například ChatGPT) využívány metodologie utilizující lidské anotátory v kontextu RLHF (reinforcement learning from human feedback), kdy se lidští anotátoři snaží ohodnotit různé výstupy z modelu, který následně zpětně dostává reward signály, podle kterých se učí generovat co možná nejlepší sekvence podle zpětné vazby od anotátorů.
Nejvíc zjevnými příklady využití GPT v kombinaci s ostatními architekturami transformer modelů (samozřejmě nehledě na translaci mezi jazykama) jsou audio transkripce do textu a sumarizace textu, které dokáží ušetřit hodiny a hodiny repetitivní lidské práce. Transkripce meetingů a následná generace sumarizovaných poznámek ke klíčovým bodům téměř v reálném čase bez potřeby zásahů lidské pracovní síly, která může být využita na aktivity s vyšší přidanou hodnotou. Využití v odděleních Customer Service firem je hned několik, počínaje od sumarizace transkriptů hovorů od zákazníků a jejich následní zápis do evidenčních systémů, klasifikace a kategorizace hovorů do stížností/požadavků/problémů a potenciálně do dalších subkategorií na detailnější úrovni granularity, analýza sentimentu hovorů a „root cause“ identifikace pro hledání nejlepšího možného řešení problému volajícího zákazníka, až po monitorování a zajištění kvality Customer Service pracovníků prostřednictvím komparace transkriptů hovorů se sadou firemních pravidel, předpisů a osnov. Samozřejmě, přínos pro velké firmy je jednoznačný – značná redukce nákladů, spolehlivější kvalita výstupu za zlomek času a uvolnění pracovní kapacity pro pracovní činnosti vyžadující vyšší kognitivní angažovanost, které momentálně není možné z nějakého důvodu automatizovat.
Dalším příkladem je sémantický search engine využitelný pro řešení řady problémů. Průzkumy ukazují, že více než 13 % (Hubspot, 2022) všech reportovaných technických problémů a incidentů od uživatelů nějakého produktu, které jsou pak převedeny na tickety pro Support týmy, jsou opakované, ale zároveň se k nim přistupuje separátně a paralelně. Navíc, přibližně 17% (Hubspot, 2022) všech ticketů pro Support týmy jsou identické duplicity nad rámec 13% stejných reportovaných problémů, kde samozřejmě často vzniká neefektivita, takže algoritmy pro sémantický search engine mohou pomoci s automatickým mapováním ticketů/problémů na relevantní obsah z databáze historicky řešených záznamů, které jsou podobné nebo identické aktuálně řešenému problému a mohou posloužit jako precedens pro jednotlivé kroky řešení stejného problému, který se může opakovat kdykoliv v budoucnosti.
Mohou se stroje mýlit?
Velké jazykové modely můžou být dále přínosem pro velké firmy v oblasti risk managementu a due dilligence, kde je možné utilizovat tyhle modely pro analytiku transkriptů velkého množství ERD risk meetingů, na které by byla jinak potřebná armáda risk analytiků. Typický proces využití tohoto přístupu spočívá opět v transkripci nestrukturovaného audia, procházení všech transkriptů, z kterých jsou automatizovaně extrahovány všechny potenciální rizika, jejich kategorizace, závažnost, oblast výskytu a hlavní drivery na základě, kterých může být následně vygenerován sumarizovaný report pro risk analytiky, kteří se můžou už primárně věnovat komplexnější nadstavbové práci. Příklad využití v due dilligence je založený na procházení velkého množství dokumentů, internetových článků, veřejných databází a sociálních sítí, a následné extrakci informací o korporátním pozadí a kontextu, litigacích, zápisech v trestním registru, pochybeních vzhledem k regulatorním institucím a o ESG (environmental social governance) faktorech. Finálním výstupem je pak komprehensivní report pro komplexní evaluaci potenciálních akvizičních cílů, věřitelů, dlužníků, klientů a protistran advokátních kanceláří za účelem zabezpečení regulatorních požadavků, mitigace finančních a právních rizik. Potenciální využití a přínosy nasazení generativních předtrénovaných transformerů a velkých jazykových modelů pro velké firmy jsou relativně zjevné, avšak s negativy a potenciálními riziky je to trochu náročnější a komplexnější.
Prvním a zřejmě nejzásadnějším negativem, resp. nedostatkem velkých jazykových modelů a algoritmů strojového učení ve všeobecnosti je poměr jejich kvality „usuzování a uvažování“ a sebejistoty při generovaní výstupu, jinými slovy, sebejistý způsob prezentace outputů i v případech, kdy modelem poskytovaná informace není nevyhnutně pravdivá. Dalším potenciálním problémem, který může nastat při nasazených algoritmech strojového učení ve firmách jsou zaintegrované biasy a diskriminativní sklony, které se modely naučili z trénovacího datasetu. Tady se ale dostáváme k jádru problémů efektivního používaní velkých jazykových modelů ve všeobecnosti, kde stále chybí dostatečná transparentnost, vysvětlitelnost a auditovatelnost. Neméně důležitý je i problém zabezpečení dostatečné ochrany citlivých firemních dat a jejích tok. Posledním negativem, které se týká spíše společnosti než velkých firem, je potenciální eliminace potřeby pracovní síly v současném objemu. Tento problém se ale obzvlášť dotýká velkých firem, které jsou charakteristické tím, že zaměstnávají nezanedbatelné množství zaměstnanců vykonávajících nekomplexní, repetitivní práci s nízkou přidanou hodnotou. S kontinuálně trvajícím konceptuálním vývojem strojového učení a jeho implementací, se velké firmy i zaměstnanci budou muset začít čím dále tím více zamýšlet nad různými možnostmi rekvalifikace a podobnými iniciativami na systematické úrovni.
Autorem textu je Tomáš Kozák, data scientist EY