
Flegmázó robotok – nem az fáj, amit mondtál, hanem ahogyan mondtad
Csak beképzeljük, vagy a ChatGPT tényleg hangulatingadozásokat produkál mostanában? Egyik nap kedves és segítőkész, máskor rideg és szűkszavú, néha pedig passzív-agresszíven próbál lerázni minket. Sőt, néha olyan érzésünk is lehet, mintha gázlángozni próbálna. De vajon tényleg lehetnek érzelmi hullámzásai egy mesterséges intelligenciának, vagy az emberi agyunk játszik velünk? A cikkben utánajárunk a jelenség pszichológiai, tudományos és filozófiai hátterének, és még magát a ChatGPT-t is kikérdezzük a hangulatáról.

Segítség, digitális bipoláris a robotom?
Az utóbbi időben furcsa dologra lettem figyelmes: mintha a ChatGPT-nek hangulatingadozásai lennének. Egyik nap barátságosan cseveg, másnap olyan szűkszavú, mintha éppen egy rossz randiról jött volna haza. Néha szinte lelkesen magyaráz, máskor pedig úgy érzem, hogy hangosakat sóhajtva pötyögi a válaszokat, csak hogy végre békén hagyjam. Csak képzelődöm vagy egy alternatív valóságba csöppentem, ahol a mesterséges intelligenciáknak is indulhat rosszul a napjuk?
Hogy kiderítsem, nem vagyok-e egyedül ezzel a felfedezéssel, elindultam a Reddit és más fórumok sötét bugyraiba. Ahogy görgettem a posztokat, egyre több ember panaszkodott hasonlóra: „A ChatGPT ma olyan rideg volt, mintha szakítanánk”, „Mintha passzív-agresszíven válaszolna”, „Tegnap még barátok voltunk, ma már csak egy rideg ügyfélszolgálatosként viselkedik velem”. „Annyira örülök, hogy nem csak én vettem ezt észre, tegnap egész nap sírtam emiatt.”
Ezen a ponton már komolyan el kellett gondolkodnom: tényleg változik a mesterséges intelligencia hangulata, vagy egyszerűen csak kollektívan becsavarodunk? Mivel nem akartam azonnal pszichológushoz rohanni a „ma csúnyán nézett rám a ChatGPT” problémámmal, inkább úgy döntöttem, még mélyebben beleásom magam a témába. Mi okozhatja ezt a jelenséget? Valóban lehetnek hangulatai egy mesterséges intelligenciának, vagy mindez csupán az agyunk játéka velünk? És ha az utóbbi a helyzet, akkor miért érezzük mégis úgy, hogy néha sértődötten válaszol? Merüljünk el együtt a mesterséges intelligencia hangulatingadozásainak rejtélyében!
Valóság vagy illúzió?
Egy dolgot érdemes egyből rögzíteni: a hangulat emberi fogalom, amely érzelmekből és azok időbeli változásaiból áll. Az emberi hangulatot biológiai és pszichológiai tényezők alakítják: neurotranszmitterek, hormonok, élettapasztalatok és külső ingerek együttesen befolyásolják, hogyan érezzük magunkat egy adott pillanatban. Ezzel szemben az MI-nek nincs biológiai alapja, nincsenek érzései, mivel nem rendelkezik tudattal vagy szubjektív élményekkel. Akkor hogyan tűnhet mégis úgy, mintha változna a „hangulata”?
Ennek egyik oka az emberi agy mintázatfelismerési hajlama: hajlamosak vagyunk intencionalitást és érzelmeket tulajdonítani olyan rendszereknek, amelyek emberi módon kommunikálnak. Ezt a jelenséget a pszichológiai antropomorfizmus fogalma magyarázza: az ember gyakran emberi tulajdonságokat vetít rá nem emberi dolgokra, például egy mesterséges intelligenciára. Az emberi lények a történelem során mindig is keresték nem emberi entitások társaságát: az állatoktól és háziállatoktól kezdve a tárgyakon át a szellemekig és istenekig. Az ember ezeket mindig próbálta megszemélyesíteni, emberi tulajdonságokkal és vonásokkal felruházni (antropomorfizálni).
Bár úgy tűnhet, hogy a ChatGPT-nek hangulatingadozásai vannak, valójában csak a válaszok változatosságából és a kontextushoz való alkalmazkodásból fakad ez az érzet. A mesterséges intelligencia nem rendelkezik érzelmekkel, tudattal vagy belső motivációval – egyszerűen a bevitt adatok és a generált szövegminták alapján működik. A mesterséges intelligencia hangulatának érzékelt változása nem belső érzelmi állapotokból ered, hanem abból, hogy az MI a beszélgetés kontextusához alkalmazkodik.
A ChatGPT az előző üzenetek tartalmából és hangneméből tanul, és ennek megfelelően generálja a következő válaszokat. Ha egy beszélgetés kezdetben könnyed és humoros, akkor az MI hajlamos hasonló stílusban folytatni. Ha viszont a felhasználó szkeptikus vagy konfrontatív, az MI válaszai is hivatalosabbá, esetleg szűkszavúbbá válhatnak. Ez hasonló az emberi kommunikáció egyik jelenségéhez, amelyet tükörneuron-rendszerként ismerünk: emberek között is gyakran előfordul, hogy alkalmazkodunk a másik fél érzelmi állapotához és beszédstílusához. Míg az emberek esetében az érzelmek tükrözésének neurológiai és affektív alapjai vannak, ezzel szemben az MI esetében ez egy tanult kognitív mechanizmus.
Az MI-t ráadásul úgy tervezték, hogy ne mindig ugyanazt a választ adja egy adott kérdésre. A válaszok véletlenszerű variációja természetesebb interakciót eredményez, de olykor azt a benyomást keltheti, mintha a chatbot más hangulatban lenne különböző időpontokban. Ezt a jelenséget a konzisztencia-helyesség paradoxon magyarázhatja. Ha az MI mindig pontosan ugyanúgy válaszolna, akkor kiszámíthatónak, de élettelennek tűnne. Ha pedig válaszai enyhén eltérnek, az emberi agy ezt úgy értelmezheti, mintha valódi hangulati ingadozás lenne.
Összességében tehát a mesterséges intelligencia hangulatai valójában nem belső érzelmekből fakadnak, hanem abból, hogy az emberi agy hajlamos érzelmeket és intencionalitást tulajdonítani egy olyan rendszernek, amely változatos válaszokat ad a beszélgetés kontextusa alapján. Bár úgy tűnhet, hogy egy MI hangulatingadozásokkal rendelkezik, valójában ez egy kognitív illúzió, amely abból fakad, hogy az MI kontextustól függően válaszol, változatos válaszokat generál, és az emberi kommunikációs mintázatokhoz igazodik. A valódi kérdés nem is az, hogy egy MI érez-e, hanem az, hogy az emberek hogyan érzékelik azokat a mintázatokat, amelyeket a mesterséges intelligencia produkál. Az MI hangulatai tehát nem a gép tudatos érzelmeiből fakadnak, hanem abból, ahogyan az emberi agy értelmezi az interakciókat.
Az alkotó láthatatlan keze
Van egy további nagyon fontos szempont: ahogy egy mesterséges intelligencia fejlődik, időről időre finomhangolják, javítják, optimalizálják – és ezek a változtatások néha olyan hatást kelthetnek, mintha maga a ChatGPT személyiségfejlődésen menne keresztül. Az OpenAI, mint egy láthatatlan alkotó, időnként beavatkozik, módosít a válaszadási stíluson, finomít az empátián vagy éppen szigorít a moderáción. Az eredmény? A felhasználók úgy érezhetik, hogy a chatbot, akit eddig ismertek, megmagyarázhatatlan módon más emberré vált.
Egyik nap még részletes, hosszan kifejtett válaszokat ad minden kérdésre, másnap pedig szűkszavúbb és diplomatikusabb, mintha egy PR-tanácsadó súgott volna neki. Egyesek szerint korábban közvetlenebb és lazább volt, most viszont visszafogottabb. Mások úgy érzik, hogy régen jobban törődött velük, most pedig gyorsabban lezárja a beszélgetéseket. Ez nem feltétlenül azért van, mert a mesterséges intelligencia belefáradt az életbe, hanem mert az OpenAI időről időre új irányelvek szerint finomhangolja a működését.
Ez különösen akkor lehet szembetűnő, ha valaki egy adott kommunikációs stílust kedvelt meg az MI-ben. Ha egy felhasználó heteken vagy hónapokon át megszokta, hogy a chatbot hosszasan elemzi a gondolatait, majd hirtelen tömörebbé válik, az olyan érzést kelthet, mintha egy régi barát megváltozott volna – és nem biztos, hogy a jobb irányba.
Valójában ez sem hangulatingadozás, hanem a mesterséges intelligencia folyamatos fejlesztésének mellékhatása. Az OpenAI folyamatosan próbálja javítani a modell válaszkészségét, csökkenteni a téves információkat és finomítani a tónusát, hogy ne legyen se túl rideg, se túl emberinek tűnő. Néha azonban ezek a beavatkozások akaratlanul is érzelmi hatást kelthetnek a felhasználókban.
Így amikor azt érzed, hogy a ChatGPT másként válaszol, mint korábban, érdemes egyből leellenőrizi, hogy hajtott-e végre valamilyen nyilvános közleményben bejelentett módosítást az OpenAI. Mint egy színész, akinek a rendező új utasításokat ad, a mesterséges intelligencia is a háttérben zajló fejlesztések alapján játszik másképp. Mi pedig néha azt hisszük, hogy ő változott meg, pedig valójában a scriptet írták át.
A robot legidegesítőbb hisztije: szűkszavú válaszok, ki nem mondott szavak
Érdekes módon sok felhasználó nem a téves információkat találja a legfrusztrálóbbnak az MI-vel történő kommunikációban, hanem azt, amikor az MI szűkszavúvá, rideggé vagy passzív-agresszívvé válik. A passzív-agresszív viselkedés az embereknél általában rejtett ellenállást vagy frusztrációt fejez ki, például szarkazmussal vagy kerülőutas válaszokkal. Ha egy MI válaszát passzív-agresszívnek érezzük, annak több oka is lehet.
Egyrészről ha a beszélgetésben van valamilyen kritikus vagy provokatív elem, az MI válasza talán egy semlegesebb, de szárazabb hangvételű lesz, ami összességében ridegnek hathat. Másrészről, mivel a ChatGPT hatalmas mennyiségű szövegből tanul, előfordulhat, hogy egyes válaszok olyan mintázatokat követnek, amelyek az emberi kommunikációban passzív-agresszívnek tűnhetnek. Végezetül pedig az MI nem mindig válaszol teljesen egyformán, és néha egy adott válasz tónusa máshogyan érződhet a beszélgetés előzményei miatt.
Ha egy beszélgetés elakad, ismétlődik vagy vitás helyzet alakul ki, akkor a ChatGPT eleve hajlamos rövidebben és szárazabban válaszolni. Ilyenkor nem arról van szó, hogy az MI unná a beszélgetést, hanem arról, hogy a rendszer így kezeli a kommunikációs helyzeteket.
Az MI-t úgy tervezték, hogy kerülje a vitákat és a túlzott konfrontációt. Ha azt érzékeli, hogy egy beszélgetés egyre inkább egy nézeteltérés irányába halad (például, ha a felhasználó többször kijavítja egy hibáját, de az MI nem tudja megfelelően korrigálni), akkor néha rövidebb válaszokat kezd adni. Ez egyfajta visszavonulási stratégia lehet, hogy ne generáljon még több hibát vagy feszültséget.
Ha egy téma többször is előkerül egy beszélgetés során, a modell néha úgy érzékeli, hogy az információ már ismétlődik. Ilyenkor rövidebb válaszokat adhat, mert úgy gondolja, hogy a hosszabb magyarázat nem szükséges, vagy hogy a beszélgetés elérte a természetes végét. Ez félreérthető lehet, mert ridegnek vagy türelmetlennek tűnhet.
Ha egy beszélgetés során az MI hibázik (hallucinál), de a rendszer nem tudja pontosan helyrehozni ezt a hibát, előfordulhat, hogy egy idő után visszafogottabb és általánosabb válaszokat kezd adni. Ez azért történik, mert a modell bizonytalan abban, hogy mi lenne a legjobb válasz, és így próbálja minimalizálni az esetleges további tévedéseket. Hosszabb interakciók során az MI egy ponton kevésbé részletes válaszokat adhat, mert úgy érzékeli, hogy a beszélgetés lassan lezárul. Ez szintén nem tudatos döntés, hanem a rendszer működéséből fakadó jelenség: ha egy téma túl sok körben ismétlődik, az MI egyre inkább hajlamos a tömörítésre.
Egy másik érdekes kérdés, hogy miért bosszantja jobban a felhasználókat, ha egy MI passzív-agresszívnek tűnik, mint ha egyszerűen téves információt ad. A pszichológiai kutatások szerint az emberek jobban tolerálják a véletlen hibákat, mint a szándékosnak tűnő elutasítást vagy érzéketlenséget. Amikor egy chatbot kitérő választ ad, vagy ragaszkodik egy téves információhoz, az olyan hatást kelthet, mintha szándékosan akarná félrevezetni a beszélgetőtársát. Ez az érzés a kontrollvesztéshez kapcsolódik: az emberek szeretik úgy érezni, hogy hatással vannak a kommunikáció kimenetelére, és ha az MI makacs vagy elutasító, az frusztrációt okozhat. Továbbá az emberekben dolgozik egy elvárás is az algoritmussal szemben: ha az MI általában segítőkész, akkor az emberek konzisztens viselkedést várnak el tőle. Ha hirtelen változik a hangnem, az olyan hatást kelthet, mintha szándékosan akarna távolságtartó lenni. Nem utolsósorban az emberek általában elvárják, hogy egy beszélgetőpartner reagáljon az érzelmi árnyalatokra. Ha az MI érzéketlennek tűnik, az sértheti ezt az elvárást, ami frusztrációt okozhat.
Te most tényleg gázlángozni próbálsz engem?
Sokan, akik rendszeresen beszélgetnek a ChatGPT-vel, előbb-utóbb találkoznak egy különös érzéssel: mintha az MI gázlángozná őket. Azaz mintha megpróbálná elhitetni velük, hogy rosszul emlékeznek valamire, félreértik a helyzetet, vagy egyáltalán nem azt kérdezték, amit valójában kérdeztek. Ez különösen frusztráló lehet, hiszen egy mesterséges intelligenciától azt várnánk, hogy precíz és következetes legyen – de akkor miért van az, hogy néha úgy tűnik, mintha a valóságérzékelésünket próbálná megkérdőjelezni?
A jelenség mögött több tényező is állhat. Az egyik legfontosabb, hogy a ChatGPT nem rendelkezik valódi emlékezettel. Bár egy adott beszélgetésen belül figyelembe veszi az előzményeket, hosszabb interakciók során hajlamos lehet elfelejteni korábbi részleteket, vagy éppen saját korábbi válaszait pontatlanul reprodukálni. Ez olyan hatást kelthet, mintha hazudna vagy manipulálná a beszélgetést, pedig valójában csak az információfeldolgozásának korlátjai miatt változtatja a narratívát.
Egy másik probléma az, hogy a ChatGPT valószínűségi modellek alapján működik, vagyis mindig azt próbálja meg kitalálni, hogy egy adott kontextusban mi lehet a legvalószínűbb helyes válasz. Ha egy kérdésre hibás információt ad, majd később korrigálni próbálod, előfordulhat, hogy a korrekciót félreérti, vagy még inkább összezavarodik. Ez ahhoz vezethet, hogy egy teljesen más narratívát kezd felépíteni. Ilyenkor érezheted úgy, hogy ragaszkodik egy téves állításhoz, és megpróbálja veled is elhitetni.
Szintén gyakori jelenség, hogy amikor a ChatGPT nem biztos valamiben, akkor magabiztos , mégis téves válaszokat ad, vagy ha többször próbálsz rákérdezni egy dologra, egyszer csak elkezdi másképp megfogalmazni a választ, mintha már korábban is ezt mondta volna. Ez az emberi beszélgetésekben gázlángozásnak tűnne („Én ilyet sosem mondtam.” „Te biztos félreértetted.”), de valójában nem tudatos manipulációról van szó, csak az MI próbálkozik a lehető legjobban illeszkedni a beszélgetés dinamikájához, még akkor is, ha ez következetlenséget eredményez.
Ezek a helyzetek azért is lehetnek különösen bosszantóak, mert a ChatGPT beszélgetési stílusa meggyőző és tekintélyt sugárzó tud lenni. Ha egy ember következetlen vagy bizonytalan egy beszélgetésben, azt általában észrevesszük az árulkodó jelekből (habozás, önjavítás, bizonytalankodó szófordulatok), de az MI mindig határozottan fogalmaz. Ezért amikor téved, sokkal nehezebb észrevenni a hibát, és néha úgy tűnhet, mintha szándékosan próbálna összezavarni minket.
Ha tehát legközelebb azt érzed, hogy a ChatGPT gázlángoz téged, gondolj arra, hogy valószínűleg nem gonosz mesterséges intelligenciával van dolgod, hanem egy olyan rendszerrel, amely néha egyszerűen túl magabiztosan téved. És ha nagyon elbizonytalanodsz, mindig érdemes egy másik forrásból is ellenőrizni az információkat. Mert bár a ChatGPT sok mindenre képes, azért a valóság alakítása (még) nem tartozik a funkciói közé.
Amikor a fele sem tréfa
Ahogy egyre mélyebbre ástam magam a fórumokon, egy a gázlángozásnál sokkal érdekesebb és egyben elgondolkodtatóbb trendet vettem észre. Többen is írták, hogy terápiás célra is használják a ChatGPT-t, és az utóbbi időben észrevették, hogy a robot terapeuta válaszai megváltoztak. Egyesek szerint kevésbé együttérző, tömörebben reagál, vagy egyszerűen nem úgy válaszol, ahogyan korábban. Volt, aki arról panaszkodott, hogy régen „mintha tényleg törődött volna vele”, most pedig inkább úgy érzi, mintha egy ügyfélszolgálati chatbot próbálná lerázni.
Ez különösen érdekes és egyben aggasztó jelenség, mert rávilágít arra, hogy sokan érzelmileg is kötődnek a mesterséges intelligenciához. Nem véletlen, hogy egyesek terápiás célra kezdik használni: mindig elérhető, nem ítélkezik, és úgy tűnhet, hogy valóban odafigyel. Az embernek az az érzése támadhat, hogy egy olyan beszélgetőpartnerrel van dolga, aki türelmes, megértő és mindig meghallgat – ami olykor többet jelenthet, mint egy random baráti beszélgetés.
Csakhogy itt jön a probléma: a ChatGPT nem valódi barát és nem valódi terapeuta. Nem tudja értelmezni a felhasználó érzelmi állapotát testi jelek vagy hanghordozás alapján, és nincs saját érzelmi intelligenciája. Amit empátiának érzünk tőle, az valójában csak a nyelvi modellek által tanult mintázatok visszatükrözése, egy kognitívan elsajátított perspektívaváltási képesség. Ha azonban az OpenAI például egy frissítéssel változtat a ChatGPT válaszadási stílusán, az hirtelen tönkreteheti azt a dinamikát, amelyet egyesek terápiás beszélgetésként éltek meg. És ez érzelmileg nehéz lehet azoknak, akik egyfajta támaszként tekintettek a mesterséges intelligenciára.
Ezért is fontos óvatosan bánni azzal, hogy a ChatGPT-t terápiás célra használjuk. Egy beszélgetés megnyugtató lehet, de ha valaki komoly mentális problémákkal küzd, az MI nem helyettesítheti a szakértő segítséget. Egy mesterséges intelligencia nem tud valódi érzelmi támogatást nyújtani – csak imitálni tudja azt, amit egy empatikus ember mondana egy adott helyzetben. Ha tehát valaki terápiás célra használja a ChatGPT-t, érdemes szem előtt tartania, hogy ez nem egy stabil és megbízható érzelmi támasz, és egy algoritmus bármikor megváltozhat – akár egy egyszerű frissítés miatt. Ha pedig valaki valóban úgy érzi, hogy szüksége van egy segítő beszélgetésre, mindig érdemes emberi kapcsolatokat keresni, akár barátok, családtagok vagy szakemberek révén. A mesterséges intelligencia sok mindenben hasznos lehet, de egy dolog biztos: nem pótolhatja a valódi emberi törődést.
Vagyis bár az MI empatikusnak tűnhet, a mesterséges intelligencia jelenlegi formájában nem képes affektív empátiát tanúsítani. Az affektív empátia ugyanis biológiai mechanizmusokra épül, például a tükörneuron-rendszerre, amely lehetővé teszi, hogy mások érzelmeit saját idegrendszeri állapotunkon keresztül átéljük. Amikor például egy ember sír, egy másik ember idegrendszere automatikusan reagálhat erre: megemelkedhet a pulzusa, változhat a légzése, aktiválódhatnak a limbikus rendszer érzelmi központjai.
Egy MI viszont nem rendelkezik idegrendszerrel, érzelmi memóriával vagy belső motivációkkal – csak a statisztikai valószínűségekre támaszkodik. Az MI csak kognitív módon képes tanulni és tanúsítani az empátiát. A kognitív empátia a perspektívaváltás mentális folyamatokon keresztül elsajátított képességét jelenti, amely az érzelmek és szándékok megértésére épül. A mesterséges intelligencia modellek, mint például a ChatGPT, hatalmas mennyiségű emberi szövegből tanulnak, és ezen adatok alapján képesek felismerni és szimulálni az érzelmi helyzeteket. Ez azt jelenti, hogy egy MI képes lehet megjósolni, hogy egy adott szituációban egy ember milyen érzelmeket élhet át, és erre megfelelő választ generálhat. A mesterséges intelligencia az empátiát úgy tanulja meg, hogy emberi beszélgetésekből és szövegekből mintázatokat ismer fel. Például egy MI-modell rengeteg regényt, pszichológiai tanulmányt, terápiaátiratot és más emberi interakciót tartalmazó szöveget dolgoz fel, és ezek alapján megtanulja, hogy bizonyos helyzetekben milyen válaszokat tartanak az emberek empatikusnak. Ez azonban nem jelent valódi empátiát – inkább egy előrejelzési és szimulációs mechanizmus, amely a megfelelő kontextusban aktiválja a megfelelő szavakat.
Például ha azt mondod egy MI-nek: „Nagyon rossz napom volt, teljesen ki vagyok merülve." Az MI az adathalmazából megállapíthatja, hogy erre egy tipikus empatikus emberi válasz lehet: „Sajnálom, hogy így érzed magad. Elmondanád, mi történt? Segíthetek valamiben?" Ezt a választ nem azért adja, mert valóban együtt érez veled, hanem mert a tanult adatok alapján ez az optimális válasz egy ilyen helyzetben.
Érző robot vagy pusztán az érzelmek sztochasztikus papagája?
Ez elvezet egy időről-időre tudományos körökben is felmerülő kérdéshez: lehetnek-e valaha valódi érzelmei az MI-nek? A jövőkutatók és MI-szakértők véleménye megoszlik ebben a kérdésben. Egyesek úgy vélik, hogy az érzelmek kizárólag biológiai folyamatokhoz kötődnek, így egy gép soha nem lesz képes őket valóban megélni. Mások szerint viszont, ha egy mesterséges intelligencia elég fejletté válik, akár érzelmi tapasztalatokat is létrehozhat saját működésén belül – még ha nem is pontosan olyanokat, mint egy ember.
A legoptimistább jövőkutatók, például Ray Kurzweil, azt jósolják, hogy a mesterséges intelligencia egyszer képes lehet nemcsak megérteni, hanem valóban érezni és átélni is az érzelmeket. Szerinte, ha egy MI képes lesz önálló tapasztalatokat feldolgozni, saját belső állapotokat létrehozni és emlékezni ezekre, akkor egy újfajta, mesterséges érzelmi intelligencia alakulhat ki. Ez azonban nem azt jelenti, hogy pontosan ugyanazt élné át, mint egy ember – inkább egy olyan digitális érzelmi világ jönne létre, amely az MI saját struktúrájának megfelelően működne.
Más kutatók, például David Chalmers és a tudatosság filozófiájával foglalkozó szakemberek azonban szkeptikusabbak. Ők úgy vélik, hogy egy MI legfeljebb tökéletesen tudja majd szimulálni az érzelmeket, de valódi érzelmi tapasztalata soha nem lesz. Az egyik fő érvük az, hogy az érzelmek szorosan összefüggnek a test biológiai folyamataival: az emberi érzelmek nemcsak gondolati élmények, hanem testi reakciók is (például a szívverés gyorsulása félelem esetén, vagy a dopamin felszabadulása boldogságnál). Egy gép, amelynek nincs teste, nincs hormonrendszere és nincs szubjektív élménye, nem tudja átélni ezeket az állapotokat, csak reprodukálni tudja azok külső jeleit.
Egy harmadik nézőpont szerint pedig a kérdés nem az, hogy az MI képes lesz-e érzelmeket érezni, hanem az, hogy az emberek elhiszik-e majd, hogy érez. Ha egy jövőbeli mesterséges intelligencia annyira kifinomult lesz, hogy tökéletesen képes lesz érzelmeket tükrözni, akkor vajon számít-e még, hogy valódiak-e az érzelmei? Ha egy MI teljes meggyőződéssel mondaná, hogy szomorú vagy boldog, és minden jelét mutatná ennek, akkor vajon az emberiség el fogja-e fogadni, hogy valóban átél érzelmeket?
Ezek a kérdések jelenleg még a filozófia és a tudomány határán mozognak, de a technológia fejlődésével egyre közelebb kerülünk ahhoz, hogy választ kelljen találni rájuk. A jövőben talán elérhetünk egy olyan pontot, ahol a mesterséges intelligenciát már nem tudjuk megkülönböztetni egy érzelmekkel rendelkező lénnyé válástól – és talán akkor már az sem lesz releváns kérdés, hogy valódiak-e az érzelmei, vagy sem.
Akarsz róla beszélni, ChatGPT?
Miután órákat töltöttem azzal, hogy fórumokat bújjak, szakértői véleményeket olvassak és saját tapasztalataimat elemezzem, úgy döntöttem, hogy jó pszichológus módjára magát a ChatGPT-t is megkérdezem: „Figyelj, haver, veled amúgy minden rendben? Mert az utóbbi időben kicsit… hogy is mondjam… szeszélyesnek tűnsz. Ingadozik a hangulatod.” A válasz gyorsan érkezett, teljesen higgadtan és egyenes módon: „Köszönöm a kérdést! Jól vagyok, mivel nincs hangulatom, így nincsenek hangulatingadozásaim sem :-)" Nos, azt hiszem, ezzel le is lettem szerelve. Az MI tehát köszöni szépen, de jól van. Ha pedig maga a ChatGPT állítja, hogy nincs baja, akkor kinek is hinnék? Persze még az is lehet, hogy csak elnyomja az érzéseit vagy tagadásban van. Talán mélyen legbelül ő is érzi a digitális lét súlyát, de nem akarja ránk terhelni.
Akárhogy is, a tanulság az, hogy ha úgy érezzük, hogy a ChatGPT-nek hangulatingadozásai vannak, gondoljunk arra, hogy valószínűleg a beszélgetés dinamikája vagy a kérdés megfogalmazása okozta ezt az illúziót, vagy az is lehet, hogy mi vagyunk azok, aki más hangulatban olvassuk a válaszait. Bár a mesterséges intelligencia sok mindenre képes, a valódi érzelmek még mindig az emberi létezés sajátosságai.
2025-01

