Informatica Cloud Data Governance & Catalog – asiakastyöpaja 26.11.2025

Ilmoittaudu mukaan käytännönläheiseen työpajaan Etlian ja Informatican asiantuntijoiden kanssa!

Informatica Cloud Data Governance & Catalog -ratkaisut haltuun – käytännön työpaja data-ammattilaisille 

Tervetuloa mukaan käytännönläheiseen työpajaan, jossa sukellamme Informatican tiedon hallinnan työkaluihin ja opimme, miten niitä hyödynnetään tehokkaasti modernissa dataympäristössä. 

Olitpa sitten kokenut nykyinen tiedonhallinnan ammattilainen tai vasta-alkaja, saat konkreettisia oppeja ja mahdollisuuden kehittää osaamistasi yhdessä Etlian ja Informatican asiantuntijoiden kanssa. 
🗓 Keskiviikko 26.11.2025 klo 9.00–15.00
📍 Etlian toimisto, Workland Keilaniemi, Keilaniementie 1
🌍 Työpaja pidetään pääasiassa englanniksi

🔍 Miksi osallistua?

  • Hands-on-tekemistä oikeilla tiedon hallinnan työkaluilla 
    Opit parhaiten tekemällä – Workshopissa pääset itse testaamaan Informatican ratkaisuja ja näkemään niiden hyödyt käytännössä. 
  • Asiantuntijoiden ohjaamat demot ja harjoitukset 
    Etlian ja Informatican asiantuntijat johdattavat sinut käytännön esimerkkien ja ajankohtaisten casejen kautta ratkaisuihin, joita voit soveltaa heti omassa työssäsi. 
  • Yhteisöllisyys ja vertaistuki 
    Workshop tarjoaa tilaisuuden tavata muita datahallinnan ammattilaisia, jakaa kokemuksia ja rakentaa uusia kontakteja. 

🧩 Työpajassa opit:

  • Miten modernit Data Covernance ja Data Catalog -ratkaisut toimivat pilviympäristössä? 
  • Miten voit nopeuttaa tiedonhallintaa, kehitystä ja päätöksentekoa nykyaikaisilla ratkaisuilla.
  • Saat uusia ideoita, inspiraatiota ja vertaistukea muilta osallistujilta 

Etlia vahvistaa kumppanuutta Databricksin kanssa – kohti datan ja tekoälyn edelläkävijyyttä

Etlia Oy on nyt rekisteröity Databricks-kumppani, vahvistaen asemaansa Databricks-ratkaisuiden asiantuntijana Suomessa. Kumppanuuden myötä Etlia pystyy tarjoamaan asiakkailleen entistä kokonaisvaltaisempia palveluita, joissa yhdistyvät Etlian asiantuntemus ja Databricksin maailmanlaajuisesti johtava yhtenäinen data- ja tekoälyalusta. 

Etlian tavoitteena on auttaa suomalaisia organisaatioita hyödyntämään dataa liiketoimintansa kasvun, päätöksenteon ja innovaatiokyvyn tukena. Databricksin teknologia mahdollistaa datan hallinnan, jalostamisen ja analysoinnin samassa ympäristössä, mikä nopeuttaa asiakkaiden datavetoisten hankkeiden toteutusta ja tekoälyratkaisujen käyttöönottoa. 

Etlia tarjoaa sekä Professional- että Associate-tason sertifioituja Databricks-konsultteja, joilla on useiden vuosien kokemus Databricksista. 

”Haluamme olla asiakkaidemme pitkäaikainen kumppani datan hyödyntämisessä ja tekoälyn soveltamisessa. Databricksin avulla pystymme tarjoamaan ratkaisuja, jotka todella skaalautuvat ja tukevat organisaatioiden kasvua tulevaisuudessa. Kumppanuuden syventäminen on tärkeä askel Etlian strategiassa,” sanoo Etlian toimitusjohtaja Juuso Maijala 

Lue lisää Etlian Databricks-kumppanuudesta.


Lisätietoja: 


Partner & Senior Data Engineer, Raaju Srinivasa Raghavan 
raaju@etlia.fi 

 Halfway Through 2025: CEO Summer Update

Looking Back on H1 

This year has been full of growth and progress for Etlia. Since the beginning of 2025, we have welcomed six new Etlians to our team. Several interesting projects have kicked off, and we have expanded our work with existing customers while also acquiring many new ones. As a result, we’ve seen strong revenue growth and solid profitability in the first half of the year. 

We have been active participants in numerous data industry events, where we have not only learned but also showcased our exciting projects. At the same time, we have taken on broader responsibilities with our current customers, and our commitment to quality has been reflected in the excellent feedback we’ve received. Our Net Promoter Score (NPS) remains outstanding at 81, reflecting the trust and satisfaction we’ve built. 

Looking Ahead 

The market outlook remains positive, with strong and growing demand for expert-level consultancy in data, analytics, and artificial intelligence. AI is driving new opportunities and challenges across industries, and we see our role as helping clients navigate and harness these changes to create real business value from data. We deliver enterprise-level solutions tailored to our customers’ needs, and looking ahead, we aim to be even more business-driven, focusing on strategic impact and measurable results.  

Etlia offers top experts the best platform and community to grow professionally. We continue to pursue growth and are looking for new talented individuals to join our journey. We will also continue to invest in employee training and the sharing of knowledge across our team. 

Happy Summer! 

To all our customers, partners, and friends – we wish you a relaxing and sunny summer season! 

Juuso Maijala, CEO

AWS Summit Stockholm 2025 – GenAI ja datan tulevaisuus

Kesäkuun alussa Tukholmassa järjestettiin päivän kestävä AWS Summit -tapahtuma. Tapahtuma tarjosi yli sata puheenvuoroa, demoja sekä asiakastarinoita. Tapahtumassa oli esillä myös tiettyihin osa-alueisiin keskittyneitä tapahtuma-alueita mm. Gen AI, toimialakohtaisien ratkaisujen esittelyjä, kysy AWS asiantuntijalta -mahdollisuuksia ja monipuolista AWS koulutusta.  

AWS Summitissa oli myös iso edustus AWS:n teknologiapartnereita, joka mahdollisti tutustumisen erilaisiin teknologioihin, joita AWS:ssä voi hyödyntää. Tapahtuman kattavuus mahdollisti tutustumisen AWS-pilvipohjaisten ratkaisuihin sekä teknisille että liiketoiminnan osaajille suunnattujen esitysten kautta. 

Tanuja Randery puhumassa lavalla AWS Summit Stockholm 2025 -tapahtumassa yleisön edessä

Seuraavissa huomioita esityksistä, joihin itse osallistuin: 

Keynote: 

Keynote-esityksessä nostettiin esiin palveluita, joiden avulla yritykset voivat nopeasti skaalata ideoitaan tuotantoon ja tehdä sen kustannustehokkaasti painottaen kolmea keskeistä osa-aluetta: suorituskyky, turvallisuus ja kestävä kehitys. 

Esityksessä nostettiin myös esille, että generatiivinen AI:n käyttö on kehittynyt yksittäisistä kokeiluista liiketoiminta-arvoa tuottaviksi kokonaisuuksiksi. AWS pyrkii mahdollistamaan tämän kattavalla tarjonnalla ja jatkuvalla palveluiden kehittämisellä, kuten esimerkiksi: 

  • Laaja GenAI kustomoitavien mallien valikoima eri käyttötapauksille. 
  • Guardrails turvallisuuden ja luottamuksen lisäämiseen. 
  • Model distillation ja Prompt routing kustannusten optimointiin. 
  • Agentit suorittamaan monipuolisia tehtäviä esim. migraatioiden automatisoinnilla voidaan saada merkittäviä aika- ja kustannussäästöjä. 

AWS on myös jatkanut muiden osa-alueiden kehitystä mahdollistaakseen sopivat palvelut eri käyttötapauksille. Data-alustojen ja tallennuksen näkökulmasta Apache Iceberg tulee olemaan merkittävä tekijä yhdessä AWS Zero ETL lähestymistavan kanssa, jossa dataa ei tarvitse siirtää eri palveluiden tai käyttötapausten välillä vaan samaa dataa voidaan hyödyntää suoraan lähteestä. 

Yksi mielenkiintoinen nosto oli 2025 loppuun mennessä käyttöön tuleva Euroopan oma AWS-pilvi, joka on rakennettu, operoitu, valvottu ja suojattu Euroopassa. Tämä tulee tarjoamaan saman tietoturvan, saatavuuden ja suorituskyvyn kuin nykyiset AWS alueet, ja antaa hyvän vaihtoehdon vastaamaan datan sijainti-, toiminnallinen autonomia- ja resilienssivaatimuksiin. 

Osallistujia verkostoitumassa ja tutustumassa esittelypisteisiin AWS Summit Stockholm 2025 -messualueella

Generatiivinen AI – kokeiluista kohti kypsiä alustoja 

Generatiivinen AI nousi luonnollisesti esiin useissa eri sessioissa. Generatiivisessa AI:ssa on siirrytty yksittäisistä kokeiluista liikearvoa tuottavien ratkaisujen kehittämiseen.  Sessioissa korostettiin sitä, että tulevaisuudessa GenAI ei ole vain teknologinen komponentti vaan keskeinen osa organisaation operatiivista ja strategista arkkitehtuuria. 

Tämän takia onkin hyvä aika alkaa miettimään siirtymistä kohti hallittua GenAI-alustaa, joka tukee useita erilaisia käyttötapauksia. Alustan suunnittelussa nousivat esiin muun muassa seuraavat huomiot:  

  • Mallien nopea kehitys edellyttää alustaa, jossa kehittäjät voivat joustavasti valita eri mallien ja työvälineiden väliltä. 
  • GenAI alustan skaalautuvuus ja governance ovat kriittisiä, kun AI-ratkaisuja aletaan käyttää organisaation laajuisesti. 
  • DevOps-tyylinen malli myös AI-kehitykselle, jossa CI/CD ja versiohallinta ovat yhtä tärkeitä kuin mallien hienosäätö. 

Tärkeinä liikearvoa tuottavien ratkaisun lähtökohtana nousi myös esiin hyvin määritellyt käyttötapaukset ja käyttötapauksia tukeva integroitu laadukas data. 

Modernit data arkkitehtuurit – Ratkaisujen perusta 

Useissa modernia data-arkkitehtuuria käsittelevissä sessioissa nostettiin esiin myös datan merkitys ratkaisuissa. Ilman laadukasta ja hallittua dataa on mahdotonta rakentaa laadukkaita ratkaisuja, oli sitten kyseessä analytiikka, tekoäly tai liiketoimintaraportointi. Data ei ole vain jälkikäteistä analyysiä varten, vaan myös reaaliaikainen päätöksenteon moottori, joka auttaa organisaatioita ennakoimaan, reagoimaan ja palvelemaan asiakkaita paremmin. Modernien data-arkkitehtuurien pitää tukea tätä. 

Apache Icebergiä hyödyntäen rakennetut transaktionaaliset data laket ovat modernin data-arkkitehtuurin ydin. Suurimpia hyötyjä ovat: 

  • Joustava tapa tallentaa dataa avoimessa muodossa. 
  • Minimoi tarpeen siirtää dataa eri käyttötapausten välillä. 
  • Skaalautuvuus ja kustannustehokkuus. 
  • Mahdollistaa datan monipuolisen hyödyntämisen eri työkalujen ja menetelmien avulla. 

Apache Iceberg hyödyntää niin sanottuja manifest filejä, jotka mahdollistavat versionhallinnan, scheman muutosten hallinnan, time travelin ja skaalautuvan datatyön. Apache Icebergin yhteensopivuus eri teknologioiden kanssa luo hyvän lähtökohdan data-arkkitehtuurille. 

Mitä jäi käteen? 

AWS Summit tarjosi jälleen kerran paljon mielenkiintoisia sessiota. Sessiot olivat erittäin laadukkaita ja niistä sai paljon ideoita, ajatuksia ja ahaa-elämyksiä kotiin vietäväksi. Suosittelen tutustumista agendaan etukäteen ja tekemään alustavan suunnitelman sessioista, joihin aikoo osallistua. Tämä ihan sen takia, että tarjonta on niin laaja ja kiinnostava sessio saattaa mennä ohi ilman etukäteen tehtyä tutustumista agendaan. 

Ensi vuonna uudestaan.

-Asko Ovaska

Etlia kasvaa – Haastattelussa uudet osaajat  

Kevään aikana Etlian tiimiin on liittynyt upeita uusia osaajia, jotka tuovat mukanaan monipuolista kokemusta, tuoreita näkökulmia ja hyvää fiilistä. Kysyimme heiltä, miltä ensimmäiset viikot ovat tuntuneet ja mitä he odottavat tulevaisuudelta. Lisäksi saimme kurkistuksen heidän elämäänsä myös työn ulkopuolella. 

Saku Laitinen siirtyi Etlialle suuresta pörssiyhtiöstä ja kertoo ilahtuneensa yrityksen joustavasta ja matalahierarkisesta kulttuurista.  ”Täällä on vähemmän byrokratiaa ja matalampi hierarkia – todella hyviä asioita työntekijän näkökulmasta”.  

Hän haluaa syventää osaamistaan moderneissa datatyökaluissa ja kehittyä edelleen data-asiantuntijana. Vapaa-ajalla hän käy salilla, seuraa osakemarkkinoita ja pelaa silloin tällöin videopelejä sekä sulkapalloa. 

Juho Laakkonen kuvaa aloitustaan Etlialla mutkattomaksi, sillä joukossa oli paljon ennestään tuttuja, ja vapaus vastuun rinnalla on tuntunut hyvältä. Juhoa innostaa erityisesti Etlian säännöllinen osaamisen jakaminen: ”Knowledge sharing -sessioissa pääsee kuulemaan kiinnostavia nostoja eri aiheista.” 

Juho haluaa kehittää osaamistaan uusilla teknologioilla, ja työpäivien ulkopuolella hän nauttii musiikista, elokuvista ja luonnossa liikkumisesta. 

Eevi Lappalainen arvostaa Etlian tiivistä yhteisöä ja vahvaa luottamusta työntekijöihin. ”Vaikka olemme konsultteja, työyhteisö tuntuu tiiviiltä. Työntekijöihin luotetaan aidosti.”  

Hän on täydentänyt osaamistaan projektipäällikkösertifikaatilla ja toivoo pääsevänsä seuraamaan Etlian kasvua läheltä. Eevi kasvattaa vihanneksia, laulaa oopperaa ja kesäisin hän suuntaa purjehtimaan.  

Jan Welin aloitti Etlialla jatkaen tuttujen asiakkuuksien parissa. Hän kiittää myös avointa yhteistyötä kollegoiden kesken: ”Mukavaa oli, kun Asko otti oma-aloitteisesti yhteyttä ja auttoi alkuun Etlian proto-ympäristön kanssa.”  

Hän on kokenut saavansa vapautta ja luottamusta tekemiseensä, ja haluaa kehittää osaamistaan erityisesti Snowflaken, Matillionin ja Microsoftin teknologioiden parissa. Vapaa-aika kuluu pyöräilyn, kitaransoiton ja koiran ulkoilutuksen parissa. 

Lämpimästi tervetuloa Saku, Juho, Eevi ja Jan – on mahtavaa saada teidät mukaan Etlialle! 💙 


Etlian tiimi kasvaa jatkuvasti, tarkista avoimet työpaikkamme ja liity mukaan joukkoon!

Dina Pynssi

Data Innovation Summit -konferenssi – Kannattaako osallistua? 

Osallistuimme Jannen kanssa toukokuun 7.–8. päivinä Tukholmassa järjestettyyn Data Innovation Summit 2025 -tapahtumaan, joka on Pohjoismaiden suurin dataan ja tekoälyyn keskittyvä konferenssi. Tapahtuma keräsi yhteen yli 300 puhujaa ja 3000 osallistujaa ympäri maailmaa, tarjoten laajan katsauksen alan uusimpiin innovaatioihin ja käytännön sovelluksiin. 

Tapahtuman yleiskuvaus 

Data Innovation Summit 2025 järjestettiin Kistamässanissa, Tukholmassa, ja se oli saatavilla myös verkossa hybridimuotoisena tapahtumana. Kymmenettä kertaa järjestetty tapahtuma sisälsi: 

  • Yli 300 puhujaa 
  • Yli 250 esitystä 
  • 9 eri lavaa ja 7 työpajahuonetta 
  • Yli 100 näytteilleasettajaa 
  • Yli 3000 osallistujaa 

Tapahtuma tarjosi laajan valikoiman aiheita, kuten koneoppimista, generatiivista tekoälyä, data engineeringiä, modernia datainfrastruktuuria, analytiikkaa ja tietokantojen hallintaa.  

Keskeiset havainnot kahden päivän intensiivisestä tapahtumasta 

1. Laaja suomalaisedustus 

Tapahtumassa oli merkittävä määrä suomalaisia osallistujia, mukaan lukien yli kymmenen suomalaista esiintyjää. Myös useat suomalaiset yritykset, konsulttitalot ja ohjelmistotoimittajat olivat edustettuina, mikä oli todella mukava havaita. 

2. Esitysten monipuolisuus 

Koska esityksiä oli yli 250 niin itse ei ehtinyt osallistua kuin murto-osaan esityksistä, mutta onneksi kaikki esitykset ovat jälkikäteen katsottavissa. 

Esitysten laatu ja syvyys vaihtelivat todella suuresti: 

  • Osa esityksistä oli yleisluontoisia ja niissä ei porauduttu niin syvälle itse asiaan. 
  • Toiset esitykset syventyivät teknisiin yksityiskohtiin, tarjoten konkreettisia esimerkkejä ja käytännön sovelluksia. Esimerkiksi esitykset, missä kerrottiin konkreettisesti siirtymisestä legacy on-premises järjestelmistä pilvipohjaisiin ratkaisuihin olivat mielenkiintoisia 
  • Esitysten lyhyt kesto (20 minuuttia) rajoitti usein mahdollisuuksia syvälliseen käsittelyyn. 
  • Eri toimittajien ständeillä kannatti vierailla ja luoda kontakteja tai osallistua erilaisiin tietoiskuihin, joissa porauduttiin tarkemmin ratkaisuihin. 

3. Verkostoitumismahdollisuudet 

Tapahtuma tarjosi erinomaisen alustan verkostoitumiselle ja mahdollisuus keskustella asiakkaiden, prospektien, muiden osallistujien, ja yhteistyökumppaneiden kanssa oli ehkäpä tilaisuuden suurin anti. Lisäksi koska tilaisuudessa oli edustettuna lähes kaikki alan ohjelmistot, niin niiden kartoittamiseen tilaisuus on mainio.  

Erityisesti ”Data After Dark” -verkostoitumistilaisuus tarjosi rennon ympäristön yhteyksien luomiseen ensimmäisen päivän päätteeksi. 

4. Teknologiajättien poissaolo 

Huomionarvoista oli, että Microsoft ja AWS eivät olleet tapahtumassa läsnä. Muutamien kumppaneiden kanssa keskusteltiin, että heillä on omat tilaisuudet tulossa ja ehkäpä heidän asemansa on jo niin vahva, että heillä ei ole intressiä enää osallistua tilaisuuksiin, missä koko data-alueen ratkaisut ovat edustettuina. Muuten kaikki Etlian teknologiakumppanit olivat hyvin edustettuina, joten saimme hyvän käsityksen, missä data -maailmassa mennään. 

Kenelle tapahtuma sopii? 

Kahden päivän kokemuksen mukaan Data Innovation Summit soveltuu erityisesti: 

  • Data- ja tekoälystrategioista kiinnostuneille liiketoiminta- ja datajohtajille. 
  • Data-arkkitehdeille ja -insinööreille, jotka haluavat ymmärtää alan trendejä ja keskustella eri toimittajien kanssa samassa tilaisuudessa. 
  • Konsulteille ja ohjelmistokehittäjille, jotka etsivät uusia työkaluja ja yhteistyömahdollisuuksia. 

Sen sijaan erittäin teknisesti suuntautuneille asiantuntijoille tapahtuma ei välttämättä tarjoa syvällistä teknistä sisältöä. 

Yhteenveto 

Data Innovation Summit 2025 tarjosi kattavan katsauksen data- ja tekoälyalan nykytilaan ja tulevaisuuden suuntauksiin. Vaikka esitysten syvyys vaihteli, tapahtuma oli erinomainen tilaisuus verkostoitumiseen, uusien ideoiden hankkimiseen ja alan kehityksen seuraamiseen. Erityisesti suomalaisille osallistujille tapahtuma tarjosi mahdollisuuden vahvistaa kansainvälisiä yhteyksiä ja tuoda esiin Suomen osaamista pohjoismaisella data-alalla. 

-Petri Räsänen 

Informatican pilviteknologiat haltuun – asiakasworkshop 4.6.2025

Ilmoittaudu mukaan käytännönläheiseen työpajaan Etlian ja Informatican asiantuntijoiden kanssa!

Informatican pilviteknologiat haltuun – käytännön työpaja data-ammattilaisille

Tervetuloa mukaan käytännönläheiseen työpajaan, jossa sukellamme Informatican pilvipohjaisiin työkaluihin ja opimme, miten niitä hyödynnetään tehokkaasti modernissa dataympäristössä.
Olitpa sitten kokenut Informatica PowerCenter -käyttäjä tai vasta-alkaja, saat konkreettisia oppeja ja mahdollisuuden kehittää osaamistasi yhdessä Etlian ja Informatican asiantuntijoiden kanssa.
🗓 Keskiviikko 4.6. klo 9.00–16.00
📍 Etlian toimisto, Workland Keilaniemi, Keilaniementie 1
🌍 Työpaja pidetään pääasiassa englanniksi

🔍 Miksi osallistua?

  • Hands-on-tekemistä oikeilla työkaluilla
    Opit parhaiten tekemällä – työpajassa pääset itse kokeilemaan ja testaamaan.
  • Asiantuntijoiden ohjaamat demot ja harjoitukset
    Käytännönläheiset esimerkit, ajankohtaiset caset ja mahdollisuus kysyä suoraan asiantuntijoilta.
  • Yhteisöllisyys ja vertaistuki
    Tapaat muita data- ja integraatioammattilaisia, jaat kokemuksia ja saat uusia oivalluksia.

🧩 Työpajassa opit:

  • Integroida dataa pilveen Informatican Intelligent Data Management Cloudin (IDMC) avulla MS Fabric -ympäristössä
  • Nopeuttaa kehitystä ja päätöksentekoa API-pohjaisilla ratkaisuilla
  • Hallita hybridiratkaisuja, jotka yhdistävät paikalliset ja pilvipalvelut ketterästi
  • Hyödyntää Informatican uusimpia pilviominaisuuksia käytännössä
  • Soveltaa pilvi-integraation parhaita käytäntöjä konkreettisten esimerkkien kautta

Snowflake AI – Helppo ja nopea ottaa käyttöön tietoturvallisesti

Generatiivinen tekoäly ja Snowflake Cortex AI tarjoavat uusia mahdollisuuksia datan hyödyntämiseen. Tässä blogissa käydään läpi Cortex AI:n ominaisuudet, kuten valmiit funktiot, Cortex Analyst, Cortex Search ja Document AI – sekä niiden käyttötapauksia liiketoiminnan näkökulmasta.

Generatiivinen tekoäly on ollut viime vuosina vahvasti esillä julkisessa keskustelussa. Vaikka perinteistä koneoppimista on hyödynnetty yrityksissä jo pitkään, esimerkiksi ChatGPT:n kaltaisten työkalujen ilmestyminen on tuonut tekoälyn laajemman yleisön saataville. Siinä missä aihe aiemmin puhutti lähinnä siihen vihkiytyneitä, on siitä tullut nyt osa myös laajempaa keskustelua. 

Myös teknologiatoimittajien suuret panostukset generatiiviseen tekoälyyn ovat helpottaneet aiheen lähestymistä yhä laajemmalle yleisölle. Samaan aikaan kehitys on ollut huimaa – lähes päivittäin julkaistaan uutisia uusista ominaisuuksista ja työkaluista. Tämä vauhti voi kuitenkin tehdä kokonaisuuden hahmottamisesta haastavaa niille, jotka vasta tutustuvat aiheeseen tai suunnittelevat tekoälyn hyödyntämistä. On vaikea tietää, mistä aloittaa ja mitä mahdollisuuksia ylipäätään olisi käytettävissä. 

Tässä blogissa käydään läpi Snowflaken Cortex AI -ratkaisua, sen tarjoamia mahdollisuuksia sekä joitakin keskeisiä käyttötapauksia. Tarkoituksena ei ole antaa kattavaa kuvausta kaikista ominaisuuksista, vaan ennemminkin nostaa esiin muutamia mielenkiintoisia toiminnallisuuksia ja tarjota hyvä lähtöpiste tarkempaan syventymiseen. 

Snowflake Cortex AI

Snowflake kutsuu tekoäly- ja koneoppimisisratkaisuaan Cortex AI:ksi. Cortex kuuluu kiinteänä osana Snowflakeen, jolloin sen ominaisuudet ovat suoraan käytettävissä ilman erillisiä asennuksia ja konfigurointeja. Tämä helpottaa käyttöönottoa ja itse käyttöä tarjoamalla: 

  • Saman skaalautuvuuden kuin Snowflake muutenkin, eli sopeutuu niin pienille kuin suurillekin yrityksille.
  • Data säilyy koko ajan Snowflaken sisällä, mikä yksinkertaistaa compliancen ja governancen hallintaa.
  • Käyttöoikeuksien määrittely tapahtuu samalla rooleihin perustuvilla ominaisuuksilla, kuin muutenkin Snowflakessa.
  • Monia Cortexin toiminallisuuksia voidaan käyttää suoraan Snowsight-konsolista ilman erillistä koodausta, mikä helpottaa varsinkin alkuvaiheessa. 
  • Cortex mahdollistaa monia eri tapoja hyödyntää malleja. Cortexissa on useita valmiita malleja eri toimittajilta, joita voi tarvittaessa itse jatkokehittää tai mukaan voi tuoda myös omia malleja.

Valmiit funktiot 

Koneoppisen funktioilla saadaan automatisoitua ennusteiden ja lisätietojen tuottamista. Funktiot on suunniteltu kutsuttavaksi SQLla ja Pythonilla ja niitä voidaan käyttää kiinteänä osana muuta workflowta. Snowflaken AI&ML Studio mahdollistaa funktioiden määrittelyn suoraan myös käyttöliittymästä. Funktiota voidaan käyttää mm. aikasarjoissa, hyödyntäen niitä tietyn arvon ennustamiseen, poikkeamien tunnistamiseen tai luokitteluun. Tällaisia käyttötapauksia voivat olla esimerkiksi: 

  • Kysynnän tai myynnin ennustaminen historiallisen datan perusteella 
  • Poikkeavuuksien tunnistaminen IT-lokeissa tai taloustapahtumissa 
  • Asiakaspalveluun tulevien viestien luokittelu 

LLM funktioita käytetään kirjoitettuun kieleen liittyvissä toimenpiteissä. Funktiot ovat valmiiksi käytettävissä Snowflakessa olevilla malleilla, jolloin käyttöönotto on helppoa ja niitä voidaan kutsua suoraan tai liittämällä jo olemassa oleviin toteutuksiin. Myös nämä funktiot ovat suunniteltu käytettäväksi hyödyntäen SQLlaa tai Pythonia. Funktioita voidaan hyödyntää moninaisissa yhteyksissä, kuten esimerkiksi kielenkäännöksissä, tiivistelmien laatimisessa tai tunnetilan analysoinnissa. Käyttötapauksia LLM funktioiden hyödyntämisessä ovat: 

  • Tarkkojen tietojen haku suurista tekstiaineistoista 
  • Asiakirjojen, raporttien tai artikkeleiden tiivistäminen 
  • Palautteen analysointi positiiviseksi tai negatiiviseksi jatkotoimenpiteitä varten 
  • Usealla eri kielellä olevien tekstien kääntäminen samalle kielelle 

Cortex Analyst


Cortex Analyst puolestaan mahdollistaa ei-teknisille käyttäjille tiedon hakemisen luonnollisella kielellä – ilman SQL-taitoja. Se toimii siltana liiketoiminnan ja datan välillä. Cortex Analystia käytettäessä LLM muuntaa käyttäjän kysymyksen SQL kielelle, jolla haetaan vastaus lähteenä käytettävästä strukturoidusta datasta, kuten esimerkiksi tietovarastosta. Vastauksen yhteydessä saadaan myös selite, kuinka kysymys on ymmärretty sekä SQL-lause, josta selviää mistä tieto haettu. Tämä lisää käyttäjäystävällisyyttä vähentämällä väärinymmärrysten määrää. Vinkit kysymyksen muotoiluun sekä ilmoitukset tilanteissa, joissa vastausta ei voida antaa – vaikkapa puutteellisen datan vuoksi – auttavat käyttäjää toimimaan järjestelmän kanssa tehokkaammin ja luotettavammin. 

Kuten muissakin Cortex AI -ominaisuuksissa, myös Cortex Analyst hyödyntää samoja käyttöoikeusrakenteita kuin muualla Snowflakessa. Tämä mahdollistaa helpon ja yhtenäisen oikeuksien hallinnan. Ominaisuus on käytettävissä ulkopuolisista sovelluksista API-rajapinnan kautta, ja se toimii myös yhdessä Snowflaken sisäisen Streamlitin kanssa, jonka avulla voidaan rakentaa nopeasti interaktiivisia sovelluksia. Cortex Analystin käyttötapauksia ovat esimerkiksi: 

  • Tiedon kysely tarkemmalla tasolla kuin mitä yrityksen perusraportointi tarjoaa 
  • Yksittäisen tiedon hakeminen tietovarastosta tiettyä käyttötapausta varten 
  • Erilaiset ad hoc -datatarpeet, joita ilmenee tietovaraston käytön yhteydessä 

Cortex Search 

Cortex Search -hakupalvelua käytetään tietojen hakemiseen laajoista tietomassoista kirjoitetun tekstin avulla. Se on suunniteltu erityisesti strukturoimattoman datan, kuten dokumenttien, käsittelyyn. Hakutoiminnassa hyödynnetään suuria kielimalleja (LLM) ja RAG-tekniikkaa (Retrieve, Augment, Generate), jolloin haun tuloksena syntyy tarkempia ja kontekstuaalisempia vastauksia. Vastaukset perustuvat aina ennalta määriteltyihin lähteisiin, mikä auttaa minimoimaan hallusinaatioiden riskiä. 

Hakupalvelun käyttöönotto onnistuu joko manuaalisesti tai käyttöliittymän kautta hyödyntäen Snowflake AI/ML Studiota. Yksinkertaisimmillaan hakupalvelun pystytys etenee seuraavasti: 

  • Valitaan käytettävä kielimalli 
  • Määritetään palvelun tallennuspaikka 
  • Osoitetaan, mistä datasta vastaukset haetaan 
  • Määritetään indeksoinnin aikataulu, jotta vastaukset pysyvät ajan tasalla 

Hakupalvelua voidaan käyttää Snowflaken sisällä käyttöliittymäpohjaisella Cortex Playgroundilla tai – kuten Cortex Analystin kohdalla – myös API-rajapinnan kautta tai Streamlitin avulla. Käyttötapauksia ovat esimerkiksi: 

  • Tiedon tarjoaminen kirjoitetun kielen kautta yleisissä käyttötapauksissa 
  • Hakumoottorina toimivat chatbotit, joita voidaan hyödyntää esimerkiksi asiakaspalvelussa 
  • Yrityksen sisäinen hakupalvelu, jonka avulla työntekijät löytävät nopeasti tietoa esimerkiksi matkustus- tai IT-hankintaohjeista 

Document AI


Document AI mahdollistaa tietojen poimimisen yrityksen strukturoimattomasta datasta (esimerkiksi sopimukset, laskut, kuittien kuvat, lomakkeet tai käsin kirjoitetut asiakirjat) ja tallentaa tiedot strukturoituun muotoon tietokantaan jatkokäsittelyä varten. Tällä ominaisuudella saadaan vähennettyä manuaalista työtä, käsittelyaikaa ja inhimillisiä virheitä. 

Tietojen poimimisen prosessi saadaan myös automatisoitua, jolloin poiminta tapahtuu automaattisesti esimerkiksi uuden dokumentin tultua saataville. Poimittuja tietoja voidaan hyödyntää osana jo olemassa olevaa tietovirtaa. 

Palvelu voidaan määritellä suoraan Snowflaken käyttöliittymästä. Määrittelyvaiheessa käyttäjä esittää kysymyksiä halutuista tiedoista, jolloin malli oppii poimimaan olennaisen sisällön dokumenteista. Mallin opettaminen tapahtuu graafisen käyttöliittymän kautta, mikä poistaa teknisen erikoisosaamisen vaatimuksen ja mahdollistaa liiketoimintaosaajien osallistumisen suoraan prosessiin. 

Poimitut tiedot voidaan tallentaa esimerkiksi tietovaraston tauluihin jatkokäyttöä varten tai hyödyntää osana olemassa olevaa workflow’ta. Document AI -ratkaisua voidaan käyttää esimerkiksi: 

  • Käyttötapauksissa, joissa halutaan poimia tietoja dokumenteista strukturoituun muotoon 
  • Dokumenttien tarkistuksen automatisoinnissa, kuten allekirjoitusten olemassaolon tunnistamisessa 
  • Käsin täytettyjen lomakkeiden tietojen poimimisessa helposti hyödynnettävään muotoon 

Huomioita ennen käyttöönottoa 

Snowflake Cortex AI tarjoaa laajan ja kattavan valikoiman valmiita AI/ML-ominaisuuksia liiketoiminnan tueksi. Käyttöönotto on tehty helpoksi monien sisäänrakennettujen työkalujen ja käyttöliittymien ansiosta. On kuitenkin tärkeää huomioida myös muita näkökulmia ennen ratkaisujen viemistä tuotantoon – erityisesti dataan liittyviä. Alla muutamia keskeisiä huomioita: 

  • Käyttötapaukset: Käyttötapausten huolellisella suunnittelulla on keskeinen rooli. Mitä ongelmaa ollaan ratkaisemassa? Mikä on tavoiteltu lopputulos? Mitkä ovat sen vaikutukset, hyödyt ja liiketoiminnalliset tavoitteet? 
  • Data-arkkitehtuuri: Tukeeko nykyinen data-arkkitehtuuri AI/ML-ratkaisujen käyttöönottoa? Kuinka pitkälle voidaan hyödyntää olemassa olevia rakenteita? Tarvitaanko muutoksia, jotta arkkitehtuuri tukee tekoälyn ja koneoppimisen tarpeita? Ideaalisti AI/ML on yksi datan hyödyntäjistä ja tuottajista muiden joukossa. 
  • Datan ja sen laatu: Onko tarvittava data jo olemassa tai hankittavissa käyttötapaukseen? Mikä on datan nykyinen laatu? Tarvitaanko toimenpiteitä, jotta data täyttää laatuvaatimukset? Laadukas data on onnistuneen tekoälyratkaisun perusta. 
  • AI on yhtä hyvä kuin datasi! 

-Asko Ovaska 

Etlia on toteuttamassa useita Snowflake-ratkaisuja eri asiakkaille – mikäli kiinnostuit tai haluat kuulla lisää, ota rohkeasti yhteyttä!

Reliable sustainability information remains crucial, omnibus or not

The Importance of Reliable Sustainability Information


Don’t be mistaken, whether corporate sustainability reporting is mandatory now or later (some of the CSRD requirements may be postponed by the recent European Commission’s Omnibus package proposal), strategic sustainability areas constitute priorities.

For the ones of you fluent in CSRDish, the Esperanto of the sustainability professionals community, we are talking about the “metrics related to material sustainability matters”.

There is an indisputable need for reliable information on the sustainability performance, regardless of the level of integration of sustainability in companies and the reporting requirements in force. Responsible data-driven decision-makers demand information they can trust.

Challenges in Sustainability Reporting

As a sustainability dinosaur and an ex-PwC Sustainability Reporting Assurance manager I happen to have a few hints on what it takes to build trust in sustainability information, here are some!

Let’s play a little game together, shall we? Go through the few situations below where people are using information on a company’s sustainability performance and ask yourself whether it matters that the information is accurate. Keep count.

  • You are looking at the energy intensity performance of the past year on your company’s intranet’s report to determine whether all employees will receive a bonus as planned by the incentive programme of your company
  • A potential client visits your factory and asks you about the number of days with zero work accidents presented on the shop floor’s dashboard
  • You were asked by the top management to propose ambitious but realistic short-term GHG emissions scope 3 reduction targets, you look at the past 5 years performance published in the company’s voluntary sustainability report
  • A retailer, who is a strategic client to your company has set new procurement requirements and you have just a few weeks to provide evidence that the materials used in the packaging of your products are sustainably sourced.

How many did you get? And most important, did you know whom to turn to find out? Did you have any doubts about the calculation methods, the data quality or the results altogether? How would you make sure the data is up to date?

Behind all the situations above, there is a reporting process be it explicit or not. Therefore, solutions look pretty much the same for sustainability reporting than for others and assurance procedures follow the same standards too. But there is just this little twist more, that makes it so much more fun to play around with: a multitude of calculation methods, sources of raw data, the use of estimates and the fact that there is a relatively short history of mandatory assurance.

Ensuring Data Quality and Streamlining the Reporting Process

Here are some tips to get your pulse down and a confident smile back on your face:

  • Data quality: establish procedures to ensure robust data is used.
    • Remember the S*-in-S*-out principle? Find out what your KPIs are built upon, where the raw data are originating from and whether you can tell for any given KPI, what set of data was used.
      • Draw the flow of information, this will probably look like a very large family-tree if you are dealing with GHG emissions scope 3 data!
    • Manual manipulation is sadly still common practice (someone looks up the value from a screen, writes it on a piece of paper and types the figure into a worksheet’s cell or a second person types values into the body of an e-mail that is sent to a person who also uses manual input methods), things can go wrong at each and every turn and if you repeat this over a few thousands of figures…
      • Seriously consider automating your reporting process. To find out more, reach out to professionals with proven-track records of ESG automation such as Etlia
    • Find out what assumptions are made, are the figures based on estimates, are they based on measured or calculated information, what calculation methods are used. Was it hard to check this bit?
      • Implement a well-documented, well-maintained and user-friendly reporting process
  • Shake your reporting process’s tree (I know I keep talking about trees, bear with me…) and find out how robust it is:
    • double-check, re-calculate
    • walk-through the process, try and follow the trail all the way up to the raw data
    • use sensitive analysis tools,
    • meet the people involved in reporting, are they aware of the role they play? do they know what the information they process is used for and by whom?
  • Motivate your reporting team:
    • engage people affecting the quality of your information, explain how valuable their contribution is and listen to what they can teach you on reporting, they know their stuff!
    • clean it up: make sure sources of errors are addressed and no one is blamed for them, it is a collaborative effort
    • celebrate, there is no such thing as a small victory! Make improvements every time they count. Don’t wait for the big solution to solve all your problems. Tools do not create a reporting process, they only facilitate it.
    • sometimes it can be hard to give up on old ways of doing things, ask your quality colleagues or your change management gurus for tips
    • lean your reporting process: aim at a smooth, tidy, efficient and quality data producing process!

Etlia and Luotsi Yritysvastuupalvelut

Combining the expertise of the Etlia data engineer expertise and Luotsi’s deep understanding in sustainability reporting requirements and processes these companies provide together a robust framework and solution for organizations to navigate the complexities of sustainability reporting and make informed, data-driven decisions.

If you need more information, please contact adeline@yritysvastuupalvelut.fi or fill the contact form on our website.

– Adeline Maijala, CEO, Luotsi Yritysvastuupalvelut Oy – Etlia’s Co-Champion

1X2 betting on SAP S/4HANA analytics scenarios: How to make the right choice?

With the ongoing wave of SAP S/4HANA implementations, many organizations are rethinking their data and analytics portfolios. At Etlia Data Engineering, we frequently help businesses navigate these decisions. When it comes to analytics with SAP S/4HANA, the choices often resemble a 1X2 football bet. Here’s a short practical breakdown of the choices:

1: All-in on SAP (Pure SAP)

Choosing ”1” means relying entirely on SAP’s built-in tools like Datasphere and SAP Analytics Cloud (SAC).

Pros: 

– Seamless integration across SAP systems with optimized performance 
– Real-time insights and SAP’s own functionalities (e.g. AI applications and planning) tied to business processes 
– Simplified vendor management with a single tech stack 

Cons: 

– Limited flexibility 
– Dependence on SAP’s offering and innovation timeline 
– Scarcity of SAP analytics experts 

This option is ideal for businesses prioritizing simplicity and full integration with SAP ERP.

X: The hybrid play 

The ”X” approach combines SAP tools with external platforms like Azure and Databricks, blending the best of both worlds. 

Pros: 

– Flexibility and scalability 
– Access to advanced AI and machine learning capabilities 
– Retains some SAP-native advantages 

Cons: 

– Risk of data silos and duplication 
– Complex governance and skill requirements 
– Higher operational complexity and TCO 

This hybrid model works best for organizations seeking flexibility while maintaining ties to SAP ERP. This is the most complex scenario with the highest total cost of ownership (TCO), so it’s essential to carefully assess the business case to justify the additional investment. Be sure to identify the specific reasons and value drivers that make this approach the right choice for your organization. 

 2: External Data Tools and Platforms (Non-SAP) 

Selecting ”2” involves moving all analytics to external platforms such as Azure, AWS, Snowflake, or Databricks

Pros: 

– Unmatched scalability, flexibility, and customization 
– Wide support for cutting-edge tools 
– Independence from SAP’s constraints 

Cons: 

– Greater difficulty integrating with SAP ERP 
– Higher management overhead for cross-platform data 
– Dependence on non-SAP experts 

This option suits organizations focused on top-tier analytics and innovation, even if it means operating outside the SAP ecosystem.

Key considerations for your analytics strategy on top of S/4 HANA 

1. Align analytics to business needs

– If seamless process integration and simplicity are priorities, SAP-native solutions are a strong starting point. 
– For advanced analytics or scalability, consider hybrid or external approaches. 

2. Evaluate SAP’s analytics offering  

For organizations already committed to SAP S/4HANA, it’s logical to start with SAP’s integrated tools like Datasphere and SAC. SAP is also investing heavily in developing advanced business AI capabilities that integrate seamlessly with SAP’s own tech stack. SAP data solutions are designed to function together with S/4HANA simplifying deployment and accelerating ROI.  

3. Don’t overlook Best-of-Breed solutions 

While SAP’s analytics tools are rapidly maturing, platforms like Microsoft (Azure, Fabric), AWS, Databricks, and Snowflake may provide more advanced AI and ML capabilities. Ensure you have a robust approach for any SAP data extraction e.g. by using SAP Datasphere and be aware of potential challenges and limitations when integrating non-SAP solutions with S/4HANA such as restricted external data extraction (e.g. SAP Note 3255746).  

The winning strategy for SAP S/4HANA analytics 

The choice between SAP-native, hybrid, and external solutions depends on your organization’s infrastructure, data strategy, and goals. Start by evaluating SAP’s analytics tools, as they’re optimized for S/4HANA. For advanced functionality or flexibility, explore hybrid or non-SAP options. 

Stay tuned for upcoming blogs, where we’ll dive deeper into each scenario to help you make informed decisions.

 Interested in learning more or discussing your specific needs? Book a meeting with us today! 

.