Data Natives 2017

Recap: Data Natives 2017 in Berlin

Am 16. und 17. November trafen sich auf der Data Natives 2017 Conference Industrieexperten, Data Scientists, Entrepreneure sowie Tech und Business Professionals, um gemeinsam über den Status Quo und die Trends in Sachen Daten zu diskutieren – das konnten wir uns natürlich nicht entgehen lassen. Zusammen mit über 1.500 anderen Tech-Interessierten freuten wir uns auf spannende Beiträge von 110 Rednern, 18 Panel-Diskussionen und über 70 Vorträge zu Künstlicher Intelligenz (KI), Machine Learning und dem Internet der Dinge.

Die Data Natives Konferenz begrüßte über 1.500 BesucherInnen in Berlin.

Datentrends für 2018

Zunächst galt es jedoch, Zugang zu den heiligen Hallen zu erhalten – die 30 Minuten Einlasszeit bis 9:00 Uhr waren von den Organisatoren sehr optimistisch angesetzt. Nun gut, so konnten während der Wartezeit in der Schlange schon einmal das Networking vorgezogen und erste Kontakte geknüpft werden. War man dann endlich mit Teilnehmerbändchen am Handgelenk im Berliner Kühlhaus angekommen, konnte man ganz in die Welt der „Data Natives“ eintauchen. Als Erstes ging es in den „Cube“, wo Eröffnungsredner und Datenwissenschaftler Kirk Bourne die Top-10-Datentrends verkündete:

  1. IoT (Internet of Things): Vernetzung physischer Gegenstände und Geräte
  2. Hyper-Personalisierung: Location-aware, Digital Exhaust, Social Trails
  3. KI (Künstliche Intelligenz): nicht nur künstliche, sondern auch augmentierte und assistierende Intelligenz
  4. Maschinenintelligenz: Prozessautomatisierung, Chatbots, Deep Learning
  5. AR (Augmented Reality): in den Bereichen Field, Training, Logistics, 3D data/info viz
  6. Verhaltensanalysen: Vorausschauende und präskriptive Modellierung von Menschen
  7. Graph-Analysen: “All the world is a graph” – Linked Data, Social Graph, Activity Graph, Product Graph, Interest Graph, Influence Graph
  8. Journey Sciences: “people, processes, products” – Data-to-Insights für vorausschauendes und präskriptives Decision Making und Data Storytelling
  9. Die Experience-Ökonomie: Design Thinking für User, Kunden und Mitarbeiter
  10. Agile – DataOps: Beschleunigung und Verbesserung von Datenverarbeitungsprozessen – incremental, iterative, fail-fast, minimum viable

Die Folgen der im Mai 2018 in Kraft tretenden GDPR wurden ausführlich diskutiert.

Panel-Diskussion: Konsequenzen der Datenschutz-Grundverordnung

Mit diesen Trends im Kopf konnte die Daten-Diskussion nun also beginnen. Erster Diskussionspunkt: Die ab Mai 2018 geltende Datenschutz-Grundverordnung (General Data Protection Regulation, kurz: GDPR) der Europäischen Union. Alexandra Deschamps-Sonsino, Katharine Jarmul, Sebastian Weyer, Gordon Grill und Johannes Klausch legten dar, dass Unternehmen Datenschutz zukünftig gleich zu Beginn des Produktdesigns beachten müssen. Die Daten zu bereinigen sowie sie leicht zugänglich und durchsuchbar zu machen, nannten sie dabei als besondere Herausforderungen. Sie empfahlen Unternehmen, die Datenschutz-Grundverordnung im Zuge von Change Management zu verarbeiten und nachhaltige Schritte einzuleiten. Sie benannten die GDPR auch als Chance für kleine Unternehmen, die Einhaltung der Regelungen für das Markenimage zu nutzen und so Kunden anzulocken.

Reges Interesse und bis auf den letzten Platz gefüllte Reihen in Raum 2 bei den Tech Trends.

Deep Learning im Porsche Digital Lab: „Cappuccino ist eine Symphonie“

Tristan Behrens, KI-Guru im Porsche Digital Lab, erzählte uns von Dingen, „von denen wir nicht glauben würden, dass er sie gesehen hätte“. So nahm er uns mit auf seine Reise nach Indien, dem digitalisierten Indien wohlgemerkt, in dem die Leute nicht lesen können, ihre Tuk-tuks aber mithilfe ihrer Smartphones über die Uber-App ordern. Oder zu dem Teenager, der bereits sein fünftes Start-up gründet und dabei ganz selbstverständlich Deep Learning umsetzt. Behrens‘ Message ist dabei ganz klar: Indien ist uns in Sachen Machine Learning weit voraus. Und: Wenn ihr etwas mit Deep Learning machen wollt, dann macht es jetzt.

Anschließend ließ er uns noch einen Blick ins Innerste des Porsche Digital Labs werfen, wo Informationstechnologien der Zukunft identifiziert und erprobt werden – so auch eine kleine Spielerei, die allein am Geräusch erkennt, ob die Kaffeemaschine gerade einen Latte Macchiato, Milchkaffee oder Cappuccino aufbrüht.

Martin Loetzsch referierte über generative Modelle für Chatbots.

Natural Language Processing & Text Analysis

Die maschinelle Verarbeitung natürlicher Sprache, kurz NLP (Natural Language Processing) – nicht zu verwechseln mit dem neuro-linguistischen Programmieren, das genauso abgekürzt wird – war auf der gesamten Konferenz ein vieldiskutiertes Thema. Durch NLP wird die natürliche Sprache erfasst und mithilfe von Regeln und Algorithmen computerbasiert verarbeitet. Hierdurch soll die Kommunikation zwischen Mensch und Computer per Sprache ermöglicht werden, sodass sich Maschinen beispielsweise per Sprache steuern lassen. Mara Tsoumari, Francisco Webber, Alan Akbik und Matthew Honnibal diskutierten aktuelle Hindernisse und Chancen von NLP. Sie gaben zu bedenken, dass als Referenz für das Verständnis von Sprache der Mensch herangezogen werde, und auch Menschen würden Dinge nicht immer gleich verstehen. Dementsprechend schwierig sei es für eine Maschine. Francisco Webber, Gründer von cortical.io, nannte als Ziel von NLP die Beseitigung repetitiver und „langweiliger“ Arbeit für den Menschen, da diese von Maschinen übernommen werden könne. So könne anhand von NLP herausgefiltert werden, bei welchen E-Mails es sich um Beschwerde-E-Mails von Kunden handle, sodass sich die menschlichen Mitarbeiter spannenderen Aufgaben zuwenden könnten. Dieser Aussage stimmte später auch Dr. Sebastian Mika, Datenwissenschaftler bei comtravo, in seinem Vortrag zu. Er nannte als aktuelles Hauptproblem bei der Umsetzung von wirklich spannenden NLP-Projekten, dass oft die entsprechenden Datenmengen fehlen würden.

Alan Akbik, NLP-Verantwortlicher bei Zalando, referierte über die Textanalyse des in Berlin gegründeten Online-Händlers. Er legte offen, dass Zalando seine Textdaten dabei vor allem aus vier Bereichen sammle:

  1. Seitensuche: kurze und prägnante Suchanfragen wie „weiße Sneaker Adidas“. Durch den Klick des Users auf entsprechende Vorschaubilder werden Text und Bild in Relation gebracht.
  2. Produktbewertungen: User beschreiben das gekaufte Produkt detailliert.
  3. Blogbeiträge: Blogger berichten über Optik und Erfahrungen mit dem Produkt.
  4. Social Media: User posten ein Foto mit dem Produkt und schreiben darüber.

Akbik erklärte, dass Zalando all diese Daten crawle, analysiere, auswerte und dabei beispielsweise feststellen könne, warum ein bestimmtes Produkt gerade besonders gefragt ist (z. B. aufgrund eines Posts durch einen Promi). Hierdurch könne die Entscheidungsfindung für oder gegen ein Produkt vereinfacht werden. Zudem seien diese Daten auch für die Verwendung von Chatbots eine wichtige Informationsquelle: Wenn ein User beispielsweise fragt, was er zu der „Data-Natives“-Konferenz anziehen soll, so könne der Chatbot nicht nur berücksichtigen, dass es sich um eine Konferenz handelt, sondern anhand von Blogposts und Social-Media-Beiträgen aus Berlin analysieren, welche Modetrends in Berlin besonders gefragt sind.

Toby Walsh zeigte, dass Kriegsführung per Maschine längst keine Zukunftsmusik mehr ist.

Killer Roboter: Zukunftsdystopie zum Gruseln

Toby Walsh, Professor für Künstliche Intelligenz an der University von New South Wales, entließ die Konferenzbesucher mit einem Blick in die Zukunft – oder vielmehr in die Gegenwart. Gesichtserkennung sei heutzutage bereits Standard in allen Smartphones. Es sei also eine Kleinigkeit, Drohnen mit ebendieser auszustatten und sie so gezielt auf Personen anzusetzen, einzeln oder im Schwarm. Autonome Waffensysteme seien bereits in der Entwicklung, teilweise sogar schon umgesetzt. Doch internationale Regulierungen und Vorschriften zum Umgang mit diesen gebe es bisher nicht. Walsh ließ am Ende seines Vortrags eindeutige Bilder sprechen – mit dieser düsteren Zukunftsvision endete der erste, spannende Tag bei den Data Natives:

[youtube https://www.youtube.com/watch?v=EFZB6AhsYHQ].

KI entert die Arbeitswelt

Tag 2 der „conference for the data-driven generation“ wurde mit der Frage eingeläutet: „Will your team mate be a robot?“. Wenn man Luisa Giani, Digital Director bei Oracle, so zuhörte, gibt es daran kaum einen Zweifel: Künstliche Intelligenz (KI) sei schon bald ein „Teil von allem“ und damit Normalität. Bereits 2030 soll die globale Wirtschaft um 16 Billionen US-Dollar größer sein als heute, allein dank KI. Bei dieser Prognose berief sich Giani auf die Zahlen des World Economic Forum.

Opening Keynote an Tag 2: Luisella Giani über Roboter, unsere neuen Kollegen.

Wer auf dem Gebiet „KI“ bislang noch nicht sehr bewandert war, ging am Ende der Data Natives 2017 definitiv schlauer nach Hause. Aufklärung über das Prinzip und den Nutzen künstlicher Intelligenz zog sich durch nahezu alle Vorträge, sodass sich auch fachfremde Besucher bald ein umfassendes Bild von der Materie machen konnten. Die Technologie von KI und Machine Learning ist immer gleich: Benötigt werden ein Set an Daten, ein Algorithmus und ein Modell, das mit der Zeit immer weiter angepasst wird bzw. sich selbst anpasst. Die Maschine lernt. Auf diese Weise können immer stichhaltigere Aussagen gemacht werden.

Was KI alles kann – und was (noch) nicht

Der Einzug von KI in den Unternehmensalltag wird zurzeit gehyped wie kaum eine andere Entwicklung – und jeder möchte dabei sein. Doch in welchen Bereichen können KI-Systeme eigentlich Prozesse verbessern? Diese Frage beantwortete unter anderem Danilo Poccia, Tech Evangelist bei Amazon Web Services (AWS), und gab verschiedene Beispiele für Anwendungen, in denen KI heute zum Einsatz kommt. So können entsprechende Systeme zum Beispiel dabei helfen, Dokumente nach abstrakten Themen zu durchforsten oder sie nach bestimmten Kriterien zu klassifizieren. Social-Media-Posts nach Stimmungslage zu filtern oder festzulegen, ob eine E-Mail als Spam anzusehen ist oder nicht, ist dadurch kein Problem. Außerdem lassen sich mit Hilfe von Machine Learning präzise Aussagen über die Zukunft treffen.

Was jedoch auch deutlich wurde: KI bedeutet auch für den menschlichen Kollegen (noch) ganz schön viel Arbeit. Denn bevor ein Modell tut, was es soll, muss es zunächst einmal manuell kreiert, mit Daten gefüttert und trainiert werden.

Die Anwendungsbereiche für Technologien solcher Art sind zahlreich: Man nehme zum Beispiel das Analyse-Tool für Sportaufzeichnungen „hudl“, den Automated Driving Service „tuSimple“ oder Bilddatenbanken wie Pinterest, die sich automatischen Bilderkennungssystemen bedienen.

Datenverliebte Gründer und ihre Geschäftsmodelle

Die neuen Möglichkeiten durch Machine Learning und Co. ermöglichen natürlich nicht nur die Verbesserung bestehender Prozesse, sondern auch die Entstehung völlig neuer Geschäftsmodelle. Einige davon wurden auf der Data Natives in Form kurzer Pitches vorgestellt – mit dem Ziel, Kontakte und idealerweise auch Investoren für das eigene Projekt an Land zu ziehen. An dieser Stelle wurde deutlich, wie breit gefächert das Anwendungsgebiet ist: Vom „Google Maps für Schiffe“ über die App „GoGetDo“, durch die man bereitwillige Helfer für die kleinen und großen Probleme des Alltags finden kann, bis hin zu „Onwrks“, einer Software-Lösung für das Datenmanagement von Windturbinen. Die jüngsten Präsentatoren kamen aus Polen und waren gerade einmal 16 Jahre alt: Die Gründer von „Zone of Open Education“ (ZOE) suchten nach Partnern für ihre interaktive Lernsoftware.

Die 16-jährigen Gründer von Zone of Open Education, einer Lernsoftware für SchülerInnen.

Data Journalism: Geschichten erzählen im Datenzeitalter

Besonders interessant gerade auch für contentschaffende Zuhörer war die Panel-Diskussion zum Thema „Data Journalism“. Hier diskutierten Programme Officer Peter Friess, PR-Berater Tilo Bonow, Datenwissenschaftler Ulf Schöneberg und Moderatorin Elena Poughia über die Chancen und Risiken des Journalismus im Angesicht von Big Data und Machine Learning. Neuen Möglichkeiten der Recherche und Aufbereitung von Stories dank großer Datenmengen und deren Analyse steht unter anderem die Gefahr gegenüber, es mit der Datenauswertung zu übertreiben – und zum Beispiel die Popularität einer Story über deren öffentliche Relevanz zu stellen. Und wo kommen wir hin, wenn in Zukunft nicht mehr der Nachrichtenwert, sondern nur noch Klicks darüber entscheiden, ob es eine Meldung auf die Agenda schafft oder nicht?

Panel-Diskussion zum Thema „Data Journalism“

Auch das Schreiben selbst wird den Kreativen und Schreiberlingen durch intelligente Software zunehmend abgenommen. Dass sich da schnell die Frage nach den Überlebenschancen des menschlichen Journalisten stellt, wundert nicht. Im Rahmen der 40-minütigen Diskussion konnte diese nicht beantwortet werden. Es wurde jedoch die vorsichtige Empfehlung gegeben: Journalisten müssen lernen, mit der schier unendlichen Menge an Daten umzugehen. Und natürlich gegen das angehen, was in der Medienwelt als Fake News betitelt wird: Die systematische Produktion und Verbreitung von Falschmeldungen wird durch KI auf ein neues Level gehoben und ist so einfach wie nie.

Data Natives 2017 Learnings: Und was haben wir davon?

Was sind nun die Schlussfolgerungen für Online Marketer? Warum sollten wir uns mit Big Data, Machine Learning und Künstlicher Intelligenz beschäftigen? Die Antwort ist simpel: Weil das jeder tun sollte. Wenn eins im Rahmen der Data Native 2017 klar wurde, dann, dass kaum ein Bereich des täglichen Lebens von KI unberührt bleiben wird und dass sich Unternehmen aller Branchen frühzeitig vorbereiten, anpassen sowie Chancen nutzen sollten.

Durch die Implementierung von Systemen, die mit KI arbeiten, können Prozesse aller Art vereinfacht, verbessert und beschleunigt werden. Manuelle Aufgaben lassen sich zunehmend automatisieren, sodass mehr Ressourcen für anspruchsvollere Tätigkeiten bleiben.

Doch auch speziell für die Marketingbranche lohnt sich die frühzeitige Auseinandersetzung mit dem Thema. Besonders wertvoll sind KI-gesteuerte Systeme hier in puncto Zielgruppendefinition. Diese machen herkömmliche Zielgruppencluster überflüssig, da der einzelne Kunde zukünftig ganz konkret angesprochen werden kann, mit all seinen Facetten und Bedürfnissen. Die große Fülle an Daten macht es möglich.

Luisella Giani zitiert John McCarthy, Urheber des Begriffs „Künstliche Intelligenz“.

Darüber hinaus werden uns intelligente Systeme schon bald bei der Erstellung von Content unterstützen – und zwar laut den Rednern nicht nur beim Zusammenfassen einfacher Texte nach ein und demselben Schema, wie es heute schon gang und gäbe ist, sondern auch beim Verfassen kreativer Geschichten, die von jenen menschlicher Autoren kaum mehr zu unterscheiden sind.

Bis es soweit ist, sorgen wir uns nicht um unseren Job, sondern versuchen, die neuen Technologien in den Arbeitsalltag zu integrieren, zum Erreichen unserer Ziele zu nutzen sowie stets die neuen Entwicklungen zu verfolgen. Währenddessen wird sich das Thema „KI“ ganz selbstverständlich in unser Leben integrieren. Ganz nach John McCarthy, der den Begriff „Künstliche Intelligenz“ (“A.I.”) in den 1950er-Jahren prägte: „… as soon as it works, no one calls it A.I. anymore.”

Author bio:

Elena ist als Content Marketing Manager bei Peak Ace für die Koordination kreativer Content-Kampagnen verantwortlich. Hier plant und erstellt sie die verschiedensten Formate vom Expertenartikel bis zur interaktiven Grafik. Dabei ist es ihr besonders wichtig, bei der Zielgruppe den richtigen Ton zu treffen.

Antworten

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.