Tudomány

Az algoritmus csapdája: magabiztosság téves tudásban

A személyre szabott ajánlórendszerek torzíthatják a valóságot és akadályozhatják a tanulást

A személyre szabott algoritmusok csendben korlátozhatják, mit fedezünk fel, miközben azt éreztetik, hogy biztosan értjük a témát, írta a SciTechDaily.

Az algoritmus csapdája: magabiztosság téves tudásban
Képünk illusztráció
Fotó: AFP/Science Photo Library/GPR/Science/Gorodenkoff Productions

A személyre szabott ajánlórendszerek úgy készülnek, hogy a felhasználóknak az előző viselkedésük alapján mutassanak tartalmakat az interneten. Azonban egy új kutatás szerint ezek a rendszerek zavarhatják is a tanulást. A tanulmány szerint, amikor az algoritmusok határozták meg, milyen információkhoz jutnak az emberek, a tanulási eredmények romlottak.

A kutatók azt találták, hogy amikor a résztvevők algoritmus által kiválasztott információkat használtak egy számukra teljesen ismeretlen téma tanulmányozásához, csak a rendelkezésre álló anyag egy szűk szeletét fedezték fel. Ahelyett, hogy a teljes információt átnézték volna, egy korlátozott részre koncentráltak.

Ennek következtében a résztvevők gyakran hibásan válaszoltak a tesztkérdésekre. Mindezek ellenére erős bizalommal álltak a helytelen válaszaik mögött.

Az eredmények aggasztóak, mondta Giwon Bahg, aki a kutatást a pszichológia doktori disszertációja részeként végezte az Ohio State Egyetemen.

A torzítás már előzetes tudás nélkül is kialakulhat

A személyre szabott algoritmusok korábbi vizsgálatai főként azt vizsgálták, hogyan befolyásolják a már valamennyire ismert politikai vagy társadalmi témákról alkotott véleményeket.

„De a mi kutatásunk azt mutatja, hogy még ha valaki egy témáról semmit sem tud, az algoritmusok már rögtön elkezdhetnek torzításokat kialakítani, és torz képet adhatnak a valóságról” – mondta Bahg, aki jelenleg a Pennsylvania State University posztdoktori kutatója.

A kutatás a Journal of Experimental Psychology: General folyóiratban jelent meg.

Brandon Turner, a tanulmány társszerzője és az Ohio State Egyetem pszichológia professzora szerint az eredmények azt mutatják, hogy az emberek gyakran úgy tekintenek az algoritmus által kiválasztott, korlátozott információra, mintha az a teljes képet reprezentálná.

„Amikor az algoritmust követik, sok információt kihagynak, de azt hiszik, amit megtanultak, az általánosítható a többi jellemzőre és azokra a részekre is, amiket soha nem tapasztaltak” – mondta Turner.

Hogyan torzíthatják a megértést az ajánlórendszerek

A kutatók ezt egy egyszerű példával szemléltették. Képzelj el valakit, aki még soha nem nézett filmeket egy bizonyos országból, és most először szeretné felfedezni azokat. Egy streaming szolgáltatás ajánl listát a nézhető filmekről.

A személy véletlenszerűen választ egy akció-thrillert, mert az az első a listán. Ezt követően az algoritmus hasonló akció-thrillereket ajánl, amiket a személy tovább néz.

„Ha a személy célja, akár kifejezett, akár rejtett, az lett volna, hogy átfogóan megértse az adott ország filmjeit, az algoritmus ajánlása komolyan torzíthatja a megértését” – írták a szerzők.

Eközben a személy valószínűleg figyelmen kívül hagyja a más műfajokban jól ismert filmeket, és a kutatók szerint pontatlan, túl általános elképzelései alakulhatnak ki az ország kultúrájáról és társadalmáról, csak egy szűk filmfajtát látva.

Az algoritmus hatásának tesztelése kontrollált kísérletben

Bahg és kollégái egy online kísérletet végeztek 346 résztvevővel, hogy megvizsgálják a folyamatot.

Az előzetes tudás kizárására a kutatók egy fiktív tanulási feladatot hoztak létre: a résztvevőknek képzeletbeli, kristályszerű idegen lények kategóriáit kellett tanulmányozniuk.

Minden lénytípusnak hat meghatározó tulajdonsága volt, amelyek a kategóriák között változtak. Például egy lény egy része négyzet alakú dobozként jelent meg, ami egyes típusoknál sötét fekete, másoknál világosszürke volt.

A cél az volt, hogy a résztvevők helyesen azonosítsák a különböző lényeket anélkül, hogy megtudták volna, hány típus létezik.

Amikor az algoritmus vezeti, mit fedezünk fel

A kísérlet során a lények tulajdonságai szürke dobozok mögé voltak rejtve. Az egyik feltételben a résztvevőknek minden tulajdonságot meg kellett vizsgálniuk, hogy teljes képet kapjanak a tulajdonságok és a lénytípusok kapcsolatáról.

Egy másik feltételben a résztvevők dönthettek, mely tulajdonságokat kattintják, miközben egy személyre szabott algoritmus kiválasztotta, mely elemeket a legvalószínűbb, hogy meg fogják nézni. Idővel az algoritmus arra ösztönözte őket, hogy ugyanazokra a tulajdonságokra koncentráljanak, miközben más tulajdonságokat kihagyhattak, bár bármikor hozzáférhettek az összes információhoz.

Az eredmények világos mintát mutattak: az algoritmus által irányított résztvevők kevesebb tulajdonságot vizsgáltak, és mindig szelektíven. Amikor új, korábban nem látott lényekkel tesztelték őket, gyakran tévesen azonosították azokat. Ennek ellenére magabiztosak maradtak a döntéseikben.

„Még nagyobb magabiztosságot mutattak, amikor helytelenek voltak, mint amikor helyesek, ami aggasztó, mert kevesebb tudással rendelkeztek” – mondta Bahg.

Gyakorlati következmények a tanulásra és a társadalomra

Turner szerint az eredmények a laboratóriumon túl is fontos kérdéseket vetnek fel.

„Ha egy fiatal gyerek tényleg próbál tanulni a világról, és online algoritmusokkal találkozik, amelyek a felhasználók fogyasztásának növelésére optimalizáltak, mi történik majd?” – mondta Turner.

„A hasonló tartalmak fogyasztása gyakran nem segíti a tanulást. Ez problémákat okozhat a felhasználóknak, és végső soron a társadalomnak is.”

Kapcsolódó írásaink