Løser stordataoppgavene med åpen kildekode

– Itera samler med den åpen kildekode baserte Apache Kafka plattformen alle data i en sanntidsstrøm, forteller leder for bank og forsikring hos Itera Andreas Homme.

Stordata: Nå er det ikke bank og forsikring «Industri i Norge» skriver om, men det er ingen tvil om at håndtering av stordata der kan være større og mer krevende enn nesten noe annet sted. Derfor oppleves det  mer enn interessant å høre Homme fortelle om mulighetene. Muligheter som selvfølgelig også industrien kan få stor nytte av.

Kafka ble opprinnelig bygget av Linkedin for løse deres utfordringer knyttet til enorme mengder data i bevegelse. Dette ble senere til selskapet Confluent, som leverer blant annet Kafka som skytjeneste, og som står bak hovedandelen av bidragene i Apache Kafka-prosjektet. Itera er Confluents første partner i Norge.

Se for deg at du eller din virksomhet er pålagt å rapportere informasjon i forbindelse med et nytt direktiv dere er underlagt. Dataene er fordelt i et utall systemer, og må samles, forstås og presenteres i en rapport – og dette skal gjøres jevnlig. I dag vil dette innebære å involvere IT og andre avdelinger for å finne data som skal analyseres, og så videre… – sist gang dere gjorde noe lignende innebar det uker med hardt arbeid.

Ved å jobbe sammen Itera og bruke Apache Kafka plattformen for å samle alt vil dette kunne løses så raskt og greit at mange vil bli nesten sjokkert.

En norsk bank reduserte tiden det tok å få dataunderlag og rapportering på plass fra 16 uker til sekunder. De hadde et stor antall systemer, som ved å bli samlet på en plattform skapte en helt ny verden for banken. Mange systemer var ikke lenger noe problem, for alle data kom uansett ut fra samme plattform.

I dag opplever de fleste virksomheter at dataene er låst i systemer som ikke snakker med hverandre. Man ønsker egentlig én enkelt og felles datakilde for hele virksomheten: et sentralt nervesystem som man stoler på, og som tilgjengeliggjør alle data og hendelser for alle. Dette gjør at man kan reagere etter hvert som data oppstår, og gjøre dagens utilgjengelige systemer mer håndterbare og tilgjengelige. 

De fleste organisasjoner står overfor en eksplosjon av data som kommer fra nye applikasjoner, nye forretningsmuligheter, IoT og mer. Den ideelle arkitekturen de fleste forestiller seg er et rent, optimalisert system som gjør det mulig for bedrifter å kapitalisere på alle dataene.

Tradisjonelle systemer som ble brukt for å løse disse problemene ble designet i en tid med store distribuerte systemer, og mangler evnen til å skalere for å møte behovene til den moderne datadrevne organisasjonen.

 

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.

Rull til toppen