A világháló jelenleg jelentős átalakuláson megy keresztül, amelyet az AI-alapú keresési technológiák robbanásszerű fejlődése ösztönöz. A legnagyobb weboldalak láthatósága csökken, miközben kevéssé ismert oldalak háromszoros növekedést produkálnak az AI-megjelenítések területén. Ezt egy Princeton által hitelesített kutatás támasztja alá, mely feltárja a generatív keresőmotor-optimalizálás, más néven AI-láthatóság új mechanikáit.
Felmerül a kérdés: mi történik, ha a tartalom túlságosan optimalizált, és miért lehet, hogy az első hely a Google-ben már nem előnyös AI szempontból? Az előadásban szó esik arról, hogy a modellek szándékosan diverzifikálják a forrásokat, így a megszokott digitális nagyhatalmak helyett friss, fókuszált tartalmakat részesítenek előnyben.
Vajon miként változtatja meg az AI azt, hogy milyen szerkezetű és hosszúságú tartalmakat részesít előnyben? A videó kiemeli a 18 tokenes bűvös szám jelentőségét a hivatkozás szintű idézetek kapcsán, és azt, hogy ez miként változtatja meg a hosszú, hagyományos tartalmak értékét.
Az intézményi árnyék, azaz a szerzők individuális láthatóságának háttérbe szorulása is jelentős problémaként jelenik meg, amire speciális szerkezeti megoldásokat javasol a videó. Emellett kitér arra, hogy a növekvő AI által generált spam tartalom hogyan teheti értékesebbé a minőségi, jól strukturált szakértői anyagokat.
Központi kérdések közé tartozik: hogyan alakítsuk a webes jelenlétünket ebben a gyorsan változó, „zajjal” teli környezetben? Miben rejlik a kisebb szereplők előnye, és milyen stratégiai lépéseket érdemes tenni a jövőbeli láthatóság érdekében az AI-vezérelt weben?









