Joulukuun katsauksessamme keskitymme kolmeen kehityskulkuun, jotka ohjaavat julkaisijoiden painopisteitä kohti vuotta 2026. Tekoälyn kasvava käytännön vaikutus myyntipuolella, IAB Tech Labin Deals API:n tuomat varhaiset mutta konkreettiset edistysaskeleet ohjelmallisten dealien automatisoinnissa sekä uudet havainnot Euroopan addressability- ja mittausvalmiuksista.
Tässä yhteenvedossa asiantuntijamme avaavat, mitä nämä muutokset tarkoittavat käytännössä: miten tekoäly vaikuttaa liikenteeseen, sisältöön ja operatiiviseen tekemiseen myyntipuolella, mitä julkaisijat voivat realistisesti odottaa Deals API:n ensimmäiseltä versiosta sekä miksi ensimmäisen osapuolen datan, kontekstuaalisten strategioiden ja mittauskyvykkyyksien vahvistaminen on nousemassa kriittiseksi.
AI myyntipuolella: mikä oikeasti merkitsee julkaisijoille
Tekoäly on kaikkialla: keskusteluissa, uutiskirjeissä, podcasteissa ja somevirroissa. Se on samaan aikaan uhka ja mahdollisuus, hyvä ja huono. Yksi asia on varma: se ei ole katoamassa mihinkään. Alalla julkaistaan jatkuvasti uusia AI-standardeja ja -hankkeita, mutta mikä on olennaista juuri nyt ja mikä vasta myöhemmin, ei ole helppo hahmottaa edes meille, jotka työskentelemme digimainonnan ja julkaisijoiden parissa. Käydäänpä siis läpi keskeisimmät AI-lyhenteet ja katsotaan, mitä niistä on oikeasti syytä ymmärtää.
Yksi tapa jäsentää kokonaisuutta on tarkastella sitä kahdesta näkökulmasta: yleisöstä ja myynnistä. Aloitetaan yleisöstä.
AI, löydettävyys ja julkaisijoiden yleisöhaaste
Negatiivinen puoli on selvä: LLM-crawlerit kuormittavat julkaisijoiden palvelimia enemmän kuin koskaan, aiheuttaen useimmiten turhia teknisiä kustannuksia ja joissain tapauksissa myös ylimääräisiä mainoskutsuja. Samalla LLM-mallit vievät osan julkaisijoiden yleisöstä hyödyntämällä sisältöä, joka on peräisin julkaisijoilta itseltään. Kaksinkertainen ongelma – ja vieläpä kiireellinen sellainen. Terve järki sanoo, että tämä on ensimmäinen AI:hin liittyvä ongelma, joka pitäisi ratkaista.
Teknisten kustannusten näkökulmasta julkaisijoiden tulisi ensisijaisesti estää kaikki ei-toivotut crawlerit. Joissain tapauksissa voi olla jopa helpompaa sallia vain ihmiset ja muutamat tunnetut, luotettavat crawlerit. Jos pystyy erottamaan aidosti hyödylliset botit niistä, jotka vain esiintyvät sellaisina, tämä lähestymistapa toimii hyvin.
Tähän on jo olemassa teknisiä ratkaisuja. Esimerkiksi infrastruktuuritoimijat kuten Cloudflare ovat julkaisseet omia ratkaisujaan, ja yritykset kuten Gravito tarjoavat seurantaan ja estämiseen tarkoitettuja työkaluja.
Sisällön käyttö, kontrolli ja monetisointi
LLM-mallien tekemä sisällön indeksointi voi olla julkaisijalle hyväksyttävää tai jopa hyödyllistä, jos se tuo yleisöä tai tuloja. Kun analytiikka ja kontrolli ovat kunnossa, seuraava askel on monetisointi. Olemme jo nähneet uutisia suurten julkaisijoiden ja LLM-toimijoiden välisistä sopimuksista. Se on hyvä alku, mutta pienempien ja paikallisten julkaisijoiden vastaavista ratkaisuista ei ole juurikaan kuultu. Ymmärrettävää, mutta huolestuttavaa.
Miten paikallinen julkaisija voi ratkaista tämän? Yksi vaihtoehto ovat standardoidut monetisointimallit, joita parhaillaan kehitetään. IAB Tech Labin Content Monetization Protocols (CoMP) ja muut hankkeet pyrkivät ratkaisemaan tätä ongelmaa, mutta niiden kehitys vie aikaa. Samaan aikaan sisältö ja yleisö valuvat jo nyt muualle. Siksi monille julkaisijoille realistisin ratkaisu voi tällä hetkellä olla LLM-scraperien tiukka estäminen ja tilanteen uudelleenarviointi vasta, kun toimivat ja skaalautuvat monetisointistandardit ovat käytössä.
AI mainosmyynnissä: automaatio, agentit ja realismi
Tekoälyn toinen puoli liittyy mainosmyyntiin, ja myös tällä rintamalla tapahtuu paljon. Vuoden jälkipuoliskon suurin AI-aiheinen julkaisu on ollut Ad Context Protocol -standardi (AdCP).
AdCP:n tavoitteena on tuoda agenttipohjaista tekoälyä mainonnan ostamiseen ja myymiseen, erityisesti suoramyyntiin. Tällä hetkellä se ei pyri korvaamaan OpenRTB:tä, vaan täydentämään sitä. Visio on kunnianhimoinen: entä jos ostajat voisivat skaalata suoramyyntinsä sadoille sivustoille ilman merkittävää manuaalista työtä?
Käytännön kokemusta myyntipuolen adtechista omaavat tietävät, että toimintaympäristö on monimutkainen. Dynaamiset inventaarit, jatkuvat kampanjamuutokset, työnkulut, järjestelmäintegraatiot ja API-kehitys muodostavat kokonaisuuden, joka vaatii vielä merkittävää työtä ennen kuin agenttipohjainen automaatio toimii luotettavasti tosielämän tilanteissa.
Siksi neuvoni julkaisijoille on tämä: jos resursseja on, mukaan kannattaa hypätä ajoissa, osallistua yhteisöön ja testata kehitystä kumppaneiden kanssa. Jos taas resursseja ei ole kokeiluihin, kehitystä kannattaa seurata tarkasti ja tutustua toimijoihin, jotka voivat auttaa käyttöönotossa myöhemmin. Skeptisyys on ymmärrettävää, mutta voi olla, että tulevaisuudessa agenttipohjaisuus on meille kaikille arkipäivää.
Tukevat standardit: UCP ja ARTF selitettynä
Ja sitten näihin tukevampiin standardeihin – niihin, jotka saattaisivat aiheuttaa harmaita hiuksia, jos niitä vielä olisi jäljellä.
Ensimmäinen on UCP eli User Context Protocol. Miksi sitä tarvitaan? IAB Tech Labin Anthony Katsurin mukaan nykyiset tavat välittää käyttäjien intentioita, kiinnostuksen kohteita ja kontekstia eivät skaalaudu tulevaan agenttipohjaiseen aikakauteen. Tarvitaan kevyempi, nopeampi, luotettava ja tietosuojayhteensopiva ratkaisu. UCP pyrkii olemaan juuri sitä.
Käytännössä kyse on uudenlaisesta “kielestä”, jonka avulla AI-järjestelmät voivat vaihtaa monimutkaisia tietoyhdistelmiä nopeasti yksinkertaisina merkkijonoina. Vähän kuin pitkässä parisuhteessa: yksi katse riittää kertomaan, että jokin on pielessä, eikä sanoja tarvita. Tässä tapauksessa sanat vain käännetään matemaattiseen muotoon. Tuoko tämä lisää mainostuloja? Ei vielä. Toistaiseksi kyse on enemmän teknologiatoimijoiden kuin julkaisijoiden työpöydällä olevasta kehityksestä.
Toinen lyhenne on ARTF eli Agentic RTB Framework. Se ei ole AI-ratkaisu itsessään, vaan standardoitu “pelikenttä”, jossa AI-sovellukset voivat toimia yhteisten sääntöjen mukaisesti. Esimerkiksi julkaisijan ad server voisi toimia isäntäalustana ja ID-toimittaja agenttipalveluna. Näiden välissä olisi erillinen, suojattu ympäristö, jossa tunnisteiden purku ja mätsäys tapahtuvat paikallisesti ja reaaliajassa.
Tässä mallissa julkaisijan ei tarvitsisi jakaa omia tunnisteitaan ulkopuolisille toimijoille vaan ID-mätsäys tapahtuisi yksityisesti ja turvallisesti. Tämä on vain yksi esimerkki mahdollisista käyttötapauksista – standardi on suunniteltu tukemaan monenlaisia sovelluksia eri isäntäalustoilla.
Mihin julkaisijoiden kannattaa keskittyä seuraavaksi
AI tarjoaa runsaasti keskustelunaiheita joulupöytiin ja seurattavaa myös uuden vuoden jälkeen. Me jatkamme tiivistä alan kehityksen seuraamista ja osallistumista standardointityöhön eri järjestöjen kautta. Mutta kaikki kehityssuunnat eivät ole yhtä tärkeitä juuri nyt, ja siksi priorisointi on olennaista.
Autamme mielellämme asiakkaitamme integraatioissa, valintojen tekemisessä ja kokonaisuuden hahmottamisessa. Ja meidän omat AI-painopisteemme ovat selkeät: kehitämme Relevant Yieldin AI-avustajaa jatkuvasti paremmiksi, opetamme sille uusia tehtäviä ja lisäämme sen itsenäisyyttä. Lisäksi rakennamme kokonaan uusia sovelluksia tukemaan julkaisijoiden operatiivista ja myynnillistä työtä. Niistä kuullaan pian lisää. Edessä on jälleen yksi mielenkiintoinen vuosi.
Petri Kokkonen - CEO & Partner, Member of the IAB Finland Board
Deal API: Mitä julkaisijat voivat siltä realistisesti odottaa?
IAB Tech Labin uusi Deals API on parhaillaan julkisella kommenttikierroksella tammikuun loppuun asti.
Perinteisesti dealin luominen neuvottelujen jälkeen on edellyttänyt, että myyjä määrittelee dealin omassa supply-side-alustassaan (SSP), toimittaa tiedot ostajalle ja ostaja tekee vastaavan määrityksen omassa demand-side-alustassaan (DSP). Osa SSP- ja DSP-toimijoista on jo helpottanut tätä manuaalista prosessia omilla rajapinnoillaan, mutta ennen Deals APIa ei ole ollut yhteistä standardoitua tapaa hoitaa tätä. Prosessi on ollut siis pirstaleinen: osassa tapauksista on hyödynnetty rajapintoja, osassa turvauduttu manuaaliseen työhön, ja rajapintojen kautta siirretty tieto on vaihdellut merkittävästi toimijasta riippuen.
Deals API:n tavoitteena on standardoida tämä prosessi järjestelmien välillä. Rajapinta mahdollistaa dealin tietojen siirtämisen SSP:stä DSP:hen yhtenäisessä muodossa, mikä voi edistää laajempaa käyttöönottoa sekä vähentää manuaalista työtä ja virheiden selvittelyä. API tukee hyvin rajattua kaksisuuntaista viestintää, jossa SSP voi tiedustella, onko deal hyväksytty ja onko se aktiivinen. Ainakin ensimmäisessä versiossa API ei kuitenkaan tue neuvotteluja tai muutoksia dealeihin, vaan kaikki ehdot on vahvistettava etukäteen.
Deals API pyrkii siis ratkaisemaan osan niistä haasteista, jotka ovat tuttuja kaikille, jotka ovat ostaneet tai myyneet mainontaa dealien kautta, mutta se ei ratkaise niitä kaikkia. Se ei mullista dealien luontia eikä takaa, että tulevaisuudessa luodut dealit otetaan automaattisesti käyttöön ostajapuolella. Ensimmäinen versio ei myöskään takaa ostajalle, että deal säilyy täysin muuttumattomana siitä hetkestä, kun se on lähetetty. Sen sijaan API voi standardoida dealien luomisen ja vähentää siihen usein liittyvää manuaalista työtä. Lisäksi se luo mahdollisuuden parempaan läpinäkyvyyteen tuomalla esiin esimerkiksi kuratointia tekevän tahon tai muut välikädet, mikä ei aiemmin ole ollut mahdollista.
Kokonaisuutena Deals API v1 on hyvä ensimmäinen askel ohjelmallisten dealien kehittämisessä. Se jättää todennäköisesti monet odottamaan tulevia versioita, joissa kaksisuuntainen viestintä ja mahdollisuus muutoksiin dealin perustamisen jälkeen kehittyvät pidemmälle. Tästä huolimatta kyseessä on tervetullut avaus.
Tuukka Aaltonen - Project Manager and Vice Chair of IAB Finland’s Data & Martech Working Group
Kohdennettavuus Euroopassa: mitkä ovat tärkeimmät huomiot julkaisijoille?
IAB Europen uusi Addressability-raportti nostaa esiin edelleen merkittäviä puutteita siinä, miten kohdentamista ja mittaamista toteutetaan eri puolilla Eurooppaa. Yksityisyyttä painottavien ratkaisujen, kuten yhtenäisten ID-ratkaisujen (unified IDs), data clean roomien ja kehittyneen kontekstuaalisen kohdentamisen, käyttöönotto on yhä epätasaista, ja monilla julkaisijoilla on edelleen rajallinen pääsy alustojen väliseen dataan. Evästeetön mittaaminen on yksi suurimmista haasteista, ja attribuution epäjohdonmukaisuus hidastaa kehitystä eri markkinoilla.
Julkaisijoille keskeisin viesti on selvä: first-party-data ja kontekstuaaliset strategiat ovat muodostumassa oletusarvoiseksi perustaksi suorituskyvyn ylläpitämiselle. Selainpohjaisten suostumusmallien vähentäessä käyttäjätason tunnisteiden saatavuutta julkaisijat tarvitsevat ratkaisuja, jotka tukevat joustavasti useita ID-ratkaisuja ja vahvempia kontekstuaalisia signaaleja. Raportti osoittaa myös, kuinka suuria osaamisaukot edelleen ovat. Monet tiimit eivät pysty arvioimaan, mitkä tunnisteratkaisut parantavat tuloksia todellisuudessa, mikä tekee läpinäkyvästä raportoinnista ja testauksesta kriittistä siirryttäessä kohti vuotta 2026.
Tässä kohtaa Relevant Yieldin kaltaiset alustat tarjoavat käytännön tukea: julkaisijat voivat vertailla eri toteutuksia, seurata eri ID-ratkaisujen todellista suorituskykyvaikutusta, mitata kontekstuaalisten strategioiden tehokkuutta ja arvioida, miten kukin konfiguraatio toimii tuotantoympäristössä. Raportoinnin lisäksi Relevant Yieldin HB Manager tarjoaa laajan valikoiman integroituja ID-kumppaneita, jotka voidaan ottaa käyttöön ja testata vaivattomasti, sekä valmiit integraatiot kontekstuaaliseen kohdentamiseen, mikä helpottaa kokeilua ja auttaa tunnistamaan, mikä toimii parhaiten kunkin julkaisijan mainosinventaarissa.
Vaikka yleisesti hyväksyttyä kohdennettavuuskehystä ei ole vielä syntynyt, suunta on selvä. Menestys edellyttää vahvempia datapohjia, parempia mittausvalmiuksia ja joustavia arkkitehtuureja, jotka pystyvät mukautumaan signaalien heikkenemisen kiihtyessä ja yksityisyyttä koskevien vaatimusten kehittyessä.
Suvi Leino - Head of Marketing
