Kategorie-Archiv: Allgemein

KIT – Informatik-Fakultät – Gewinnspiel

Wie jedes Jahr, seit wir das Spiel entwickelt haben, steht es für Studienanfänger wieder online. Anhand verschiedener Locations und den Möglichkeiten vor Ort füllt man seinen fiktiven Terminkalender und erfährt in der Auswertung, welches Klischee man erfüllt. Zum Beispiel: „Der Informatiker ist optisch schon aus zwei Kilometern Entfernung als solcher zu erkennen. Er ist grundsätzlich männlich und fällt durch seine fahle und picklige Haut, tiefe Augenringe und Pizzareste im Haar auf. Zu allem Überfluss trägt er weiße Tennissocken in den Ledersandalen, die seine Mutti im Ausverkauf erstanden hat. Seine Welt besteht aus Daten und er kommuniziert ausschließlich über Skype und Twitter. Deswegen als Einzelgänger zu gelten, macht ihm nichts aus, schließlich wagt er sich ohnehin nur einmal im Jahr in die reale Welt hinaus. Zur CeBIT.“geek, forscher oder unternehmer

Noch mehr absurde Klischees rund um die Informatik findet man im Spiel und dazu einige Informationen über das Informatikstudium am KIT und das Karlsruher Studentenleben.

Stummfilm 1930, Musik 2012

menschen am sonntag_kleinDer melancholische Film zeigt einen sonnigen Sonntag in Berlin 1930. Ohne Schauspieler. Man sollte den Film unbedingt mit der Vertonung der live coding laptop band  Benoît and the Mandelbrots  aus Karlsruhe ansehen: https://www.youtube.com/watch?v=gZNs7rdGxdI 

Karl Prümm schrieb im Jahr 2000 im Tagesspiegel zu dem Film: „Menschen am Sonntag“, das war cinéma pauvre im radikalen Sinn des Wortes. Damals, 1929, mussten die Dreharbeiten immer wieder unterbrochen werden, weil das Geld fehlte. Das Filmmaterial war Ausschussware: Kameramann Eugen Schüfftan benutzte überlagerte Agfa-Filme, das die Ufa-Studios nicht mehr anrühren wollten. Alles schien auf ein Desaster hinauszulaufen. Die Schauspieler: Laiendarsteller. Der Regisseur: ein Neuling. Robert Siodmak hatte bislang nur am Set volontiert. Und sein Bruder Curt Siodmak sowie Billy Wilder, die beiden Verantwortlichen für Stoff und Idee, … den Artikel finden Sie unter:  http://www.tagesspiegel.de/kultur/menschen-am-sonntag-bruechig-wie-das-leben/179282.html

 

IP-Adressen: Der Mensch hinter den Suchanfragen

Christoph Lauer von der Piratenpartei erklärt, wie einfach die Überwachung anhand der festen IP Adresse geht und Behörden angreifbar macht: „Es ist nicht nur bekannt, was sie vorhaben, es ist auch bekannt, was ihre Mitarbeiter denken, welche Probleme sie haben, wo ihre Schwachstellen sind. Das gilt nicht nur für Behörden, sondern für alle Institutionen, die über feste IP-Ranges ins Internet gehen. Wie zum Beispiel größere deutsche Medienhäuser.

Man kann den Spieß auch umdrehen: Wenn man weiß, dass eine Suchanfrage aus dem Innenministerium kommt, dann kann man das Suchergebnis natürlich auch maßgerecht fürs Innenministerium anpassen. Der Bundestag sucht etwas zum transatlantischen Freihandelsabkommen TTIP? Da werden zuerst Artikel angezeigt, die erläutern, warum TTIP gut für Deutschland ist.“

via IP-Adressen: Der Mensch hinter den Suchanfragen.

www.ka300.de

300 JAHRE KARLSRUHE

Ein Stadtgeburtstag für alle

2015 feiert Karlsruhe seinen 300. Geburtstag – ein ganzes Jahr lang. Mit vielen Events, Ausstellungen, Festen, Shows, Wettbewerben, Konzerten, Feiern, … zum Erleben und zum Mitmachen. Höhepunkt wird der Festivalsommer sein. Er beginnt mit der dreitägigen Eröffnungsfeier vom 17. bis 20. Juni und endet am 27. September.

Feiern Sie mit!

Lassen Sie nur, das kann doch die Maschine schreiben

Als in den vergangenen Wochen unter dem Label „Roboterjournalismus“ die Meldung durch die Medien ging, dass sich die einfachen Texte nun von selber schreiben, war die Aufregung groß. „Mein Chef ist ein Computer“, titelte etwa das Handelsblatt und berichtete, dass noch diesen Sommer die Stuttgarter Kommunikationsagentur Aexea ein Sportportal starten will, das ganz ohne Journalisten auskommt: Statt Menschen lieferten hier automatische Computerprogramme die Texte. Wer sich daraufhin aber über die Arbeitsplatzvernichtung echauffierte, war bei Saim Rolf Alkan, dem Geschäftsführer der Aexea GmbH an der falschen Adresse. „Wir haben bislang noch keinen Textautomaten an eine Zeitung geliefert“, für die Schieflage von Zeitungen seien immer noch verlegerische Fehlleistungen verantwortlich.

Mai 2014

Der gebürtige Remstäler Saim Rolf Alkan, 45, war früher selber Journalist bei der Motorpresse Stuttgart, dann machte er sich mit einem Redaktionsbüro selbstständig und erlebte den Preisverfall journalistischer Leistungen nach der Jahrtausendwende am eigenen Leib: Als die gedruckten Medien ihren letzten Aufschwung erlebten, sei ein Text mit 400 Wörtern noch mit 400 DM honoriert worden. Dann kam der Absturz mit Dienstleistern wie content.de oder textbroker.de. Rapide seien die Preise gefallen, heute könne man einen solchen Text schon für vier bis acht Euro haben. Als die Billigtexte den Markt überfluteten, wusste Alkan nicht mehr, wie er unter diesen Umständen weiter die Gehälter seiner Angestellten zahlen sollte. Im Lehrbuch des Kapitalismus fand er den Ausweg „Automatisierung“. Die Idee zur automatischen Textgenerierung in Deutschland war geboren. Was in den USA das Unternehmen „Narrative Science“, gegründet von drei Professoren für Informatik und Journalismus, Stuart Frankel, Kris Hammond und Larry Birnbaum, anbot, sollte nun auch in Deutschland verfügbar sein. Was aber ist dran an diesem Medien-Science-Fiction? Zunächst mal: schon ganz schön viel Realität und Wissenschaft, zur Fiktion kommen wir später. Narrative Science liefert dem US-amerikanischen Wirtschaftsmagazin „Forbes“ Texte zu Unternehmensentwicklungen, die dieses in einem eigenen Blog publiziert.

Die deutsche Grammatik stellt hohe Anforderungen an die Textautomaten. Ausgerechnet in der Hauptstadt des Bundeslandes, das für sich reklamiert, alles außer Hochdeutsch zu können, sitzt mit der Firma Aexea einer der aktuell erfolgreichsten Player auf diesem Gebiet in Deutschland. Zum einen können sie Texte in sieben verschiedenen Sprachen generieren, zum anderen haben sie ein eigenes regelbasiertes System entwickelt, mit dem sie auch ungewöhnliche Daten zu einer Meldung verarbeiten können. Andere Anbieter, so Alkans Aussage, könnten Daten und Fakten nur innerhalb eines bekannten Systems einordnen, die Software von Aexea dagegen wüsste auch mit der Tatsache etwas anzufangen, wenn in Stuttgart zur größten allgemeinen Verwunderung im Sommer 45°C herrschten. „In Baden-Württembergs Landeshauptstadt außergewöhnlich große Hitze. Ist der Klimawandel schuld?“ könnte dann ihre Maschine schreiben. Erfahrungen hat Aexea bislang vor allem mit Produkttexten im Bereich E-Commerce gesammelt. „Roboterjournalismus“, so möchte Alkan sein Angebot gar nicht nennen, er bevorzugt den Begriff „semantische Technologie“.

Auch das Unternehmen text-on bietet an, abstrakte Daten zu verständlichen Texten zu verarbeiten und einfach lesbare Zusammenfassungen zu liefern. „Heute sind zu fast jeder gesellschaftlichen und wirtschaftlichen Entwicklung umfangreiche Datensammlungen verfügbar, aber nur mit erheblichen zeitlichen und personellen Ressourcen lassen sich daraus schnell nachvollziehbare, gewichtete Zusammenfassungen und Entscheidungshilfen machen“, schreiben die Macher auf ihrer website. Deren Geschäftsführer und Gesellschafter Cord Dreyer startete seine berufliche Karriere bei der Deutschen Presse-Agentur (dpa), und leitete nach einigen weiteren Stationen die dapd Nachrichtenagentur GmbH in Berlin, bis er sich schließlich 2012 als Berater selbstständig machte.

Reportagen, Features, Portraits und Interviews werden sicher nicht in absehbarer Zeit von Algorithmen erstellt werden. Johannes Sommer, Geschäftsführer des Berliner Technologiedienstleisters Retresco erläutert in einem Interview, dass die natürlichen Grenzen in Stilmitteln wie Sarkasmus, Ironie oder Sprachspielen lägen, diese besonderen Feinheiten und Brüche in der Sprache könne die Maschine weder erkennen noch produzieren. Dass ein Verlag in naher Zukunft fünf Redakteure durch eine Software ersetzen könnte, hält er für Unfug. Doch er fordert: „Journalisten müssen sich mit den neuen Technologien auseinandersetzen, um sie zu verstehen. Erst dann können sie Grenzen ziehen, sich positionieren und sie gezielt zu ihrem Vorteil einsetzen“. Das versteht man besser, wenn man weiß, dass Retresco schon heute die Grenzen mit Hilfe semantischer Lösungen verwischt. Einige davon nutzt der Online-Auftritt swp.de der Südwestpresse, etwa das Geotagging (Leser erhalten gezielt Nachrichten aus ihrem Ort) oder die mit Hilfe semantischer Technologien automatisch erstellten Dossierseiten.

Spezialität: Der individualisierte Text

Was die Computer also jetzt schon können, ist das Übernehmen von Routinen. Auf diese Idee sind natürlich die Informatiker gekommen. Es ist ihr Job, Lösungen für wiederkehrende Probleme zu schaffen. Und da sie nun auch öfter in den Redaktionen anzutreffen sind, entwickeln sie auch Lösungen, wie man jeden Tag einen neuen Wetterbericht bekommt. Statt täglich einen Wetterbericht selber zu schreiben, programmiert der Softwareentwickler einen Algorithmus, der jeden Tag diesen Wetterbericht für ihn schreibt. Die Daten werden sowieso schon vom Computer ausgewertet, da ist es nur ein kleiner Schritt, sie auch von einem Computer zusammenfassen zu lassen. Und wenn wir schon mal beim Wetterbericht sind, können wir da noch einen Schritt weiter gehen und die Vorhersage auf individuelle Bedürfnisse zuspitzen.

Alkan erläutert: „Ein Leser einer Zeitung oder eines Onlineportals kann mit seinem Profil seinen Wohnort hinterlegen, vielleicht auch ein paar Eckdaten: er hat ein Auto, einen Hund, zwei Kinder und lebt im Gebirge. Aufgrund dieser Informationen können wir ihm einen hyperlokalen Wetterbericht zusammenstellen, in dem wir ihn darauf hinweisen, wenn es ratsam wäre, die Winterreifen aufzuziehen.“

Also Texte für die individuelle Lebenssituation des Lesers und hyperlokale Nachrichten. Die Unternehmen sehen aber auch große Chancen darin, mit ihren Angeboten so genannte Nachrichtenlücken zu schließen, etwa mit Sportergebnissen der Kreisliga wie dem Spielergebnis SV Bonlanden gegen den 1. FC Frickenhausen. Ein weiteres Anwendungsgebiet wäre die Finanzkommunikation über Außenseiter-Papiere – so bekommt ein Anleger einer südafrikanischen Silbermine einen lesbaren Text in ganzen Sätzen über seine Werte. Bislang stehen für solche Leser-Bedürfnisse keine journalistischen Kapazitäten zur Verfügung. Die Journalisten brauche man dennoch weiterhin, wird beteuert. Denn sie besuchen die Bürgerversammlung, nehmen politische Bewertungen vor, beschreiben, was sie gesehen haben. Die Maschine ist zu einem subjektiven Eindruck nicht in der Lage. Tatsächlich sei sie eine Ergänzung in der Redaktion, aber kein Ersatz für einen Redakteur.

Eine Ergänzung, die aber einen ganzen Strauß von Phantasien beflügelt. Der Aexea Geschäftsführer Saim Alkan schwärmt von der Verknüpfung großer Mengen individueller Daten zu einer kollektiven Emotion. Etwa wenn die Smartphones der Zukunft sowieso Daten über den Gesundheitszustand an den Arzt senden, so könnte diese Information zu Blutdruck oder Herzfrequenz noch ganz anders genutzt werden. Gekoppelt an die Aufzeichnung eines Fußballspiels würde der Herzschlag vieler Fans signalisieren, wenn die Spannung steigt. Der Reporterautomat wäre gewarnt. Ein trainierter Algorithmus für die Radioberichterstattung würde sofort seine Sätze verkürzen, seine Stimmlage erhöhen und Atemlosigkeit simulieren, bis zum Toooooooor! Toooooooor! Toooooooor!.

Wie das funktioniert

Es handelt sich noch nicht mal um einen niedlichen kleinen Roboter mit großen Augen, geschickten Fingern und einem anrührenden Wackelgang. In Wirklichkeit sind es nur Algorithmen, die aus Daten in Sekundenschnelle Artikel generieren. Das ist heute schon Realität, bei einfachen Meldungen kann man nicht herausfinden, ob der Text von einem Menschen oder von einer Maschine geschrieben wurde (s. unten). Schließlich geht es hier nicht um Literatur aus einer Edelfeder, sondern um austauschbare Allerweltstexte. Machen wir uns nichts vor, auch Journalisten verwenden für diese Art von Text oft die immer gleichen Textbausteine.

Zentral ist die Geschwindigkeit: Die vom Computer verfassten Texte stehen ruckzuck im Netz, da muss kein Journalist geweckt werden, kein Kaffee gekocht, kein Verb gesucht und keine Überschrift von Hand formatiert werden. Und wer als Erster meldet, kriegt viele Klicks. In diesem Sinne muss „Verständlichkeit“ neu definiert werden, denn in erster Linie geht es ja darum, dass diese von Computern verfassten Texte von anderen Computern schnell gefunden werden.

Die Grundlage für jede Textmaschine sind strukturierte Daten. Wenn keine Daten vorliegen ist es unmöglich, etwas zu automatisieren. Wenn es sich um eine semantische Automatisierung handelt, dann ist die Maschine hier auch in der Lage, diese Daten zu bewerten. Algorithmen sind beispielsweise bereits in der Lage, selbständig zu erkennen, ob eine Firma im vergangenen Jahr Gewinn gemacht hat, ob dies dem Trend der letzten Jahre entspricht und wie sich das Unternehmen im Vergleich zur Konkurrenz entwickelt hat. Einen Computer muss man allerdings auch auf einfache Texte thematisch vorbereiten. Die Fachbegriffe lauten hier „Semantik“ und „Ontologie“. Wissen kann nur mithilfe von Semantik vermittelt werden. Semantik nennt man die Bedeutung einer Informationsfolge – der Computer muss also „gelernt“ haben, dass die Buchstabenfolge K-I-E-F-E-R den einzigen beweglichen Knochen am Kopf bezeichnet – und einen Nadelbaum benennt. Welcher von beiden Bereichen zutrifft – Skelett oder Nadelbaum – definiert die gewählte Ontologie, sie gibt die Bedeutungen und den passenden Wortschatz vor. Ein großer Teil der Arbeit besteht also darin, Wissen explizit für die Maschinen verständlich zu machen. Daraus kann dann der Computer blitzschnell Texte in großen Mengen herstellen. Seine Server, sagt Alkan, könnten theoretisch über 3,5 Millionen Texte pro Tag verfassen. Aexea und eine Konkurrenzfirma seien derzeit daran, ihre Algorithmen so zu verfeinern, dass – wie sie hoffen – auch deutschsprachige Nachrichtenportale ihre Dienste in Anspruch nehmen wollen.

Die Maschine trainieren

„Die größte Schwierigkeit bestand tatsächlich darin, die grammatischen Regeln zu hinterlegen“, beschreibt Alkan. „Denn wir machen ja keine Synonymmaschine, wo wir Adjektiv gegen Adjektiv oder Verb gegen Verb ersetzen, sondern wir fügen Daten über eine Grammatikmaschine so aneinander, dass sich ein tatsächlicher Text entwickelt, der einen Mehrwert beinhaltet, und den ein Leser auch tatsächlich nicht von von einem von Menschen geschriebenen Text unterscheiden kann.“

Ein Satz sagt mehr als eine Grafik

Cord Dreyer, der ehemalige Chef von dapd, und Gründer des Startup-Unternehmens „Text-On“ will „Texte anbieten, die den Menschen helfen, die Welt besser zu verstehen“. Dabei geht es seiner Ansicht nach darum, dass man Datenmaterial, welches ja sehr häufig die Basis für Erkenntnisse ist, mit einem Computerprogramm auswertet und in einem zweiten Schritt das versprachlicht, also vertextet. Sein erklärtes Ziel lautet, den Menschen mehr an die Hand zu geben, als diese Datenwüsten wie sie von Excel oder ähnlichen Programmen bereitgestellt werden, ermöglichen. Ganze Sätze erläutern komplexe Sachverhalte besser als eine Grafik.

Ursprünglich sind Zeitungen aus dem Bedarf nach genau dieser schnellen und nüchternen Information entstanden, nämlich weil die Wirtschaft Nachrichten über Schiffsuntergänge, politische Krisen oder den Ausbruch von Kriegen brauchte. Im Mittelalter übernahmen von Hand abgeschriebene Kaufmannsbriefe diese Aufgabe. Die ersten gedruckten Zeitungen erschienen dann zu Beginn des 17. Jahrhunderts, wie es hieß: „Zur befürderung unnd gewinnung der Zeit“, die sonst mit „Abschreiben“ verbracht worden war. Sukzessive kamen dann zur Nachrichtenproduktion neue Formate wie Leitartikel, Reportagen, Kommentare, Portraits, Glossen und Interviews hinzu.

Mit Hilfe der schreibenden Algorithmen sollen Journalisten genau dafür wieder mehr Zeit gewinnen: vielschichtige Zusammenhänge recherchieren und beschreiben, statt schnöde Nachrichten produzieren. Das wäre schön. Theoretisch. Wahrscheinlich kriegen wir aber in Zukunft noch mehr austauschbare Nullachtfünfzehntexte serviert, weil sie in Sekundenbruchteilen produziert werden können und viele Verleger und Content-Manager diese Algorithmen nutzen, die weder Gehalt noch Krankenversicherung brauchen und trotzdem viele irgendwie verständliche Sätze auf die Seiten bringen.

Beispiel für einen personalisierten Wetterbericht von Axea

Das Wetter in Stuttgart am 21.5.2014

Personalisiert für alleinstehenden Berufstätigen, der gerne Sport macht, Freunde trifft, sein Auto liebt und einen Garten hat.

T-Shirt und Sonnenbrille

Der Mittwoch ist ein guter Tag für alle Stuttgarter und Stuttgart-Besucher. Die Sonne hat sich angekündigt und wird ohne Ausnahmen von morgens bis abends ein wärmender Begleiter sein. Die Temperaturen klettern erstmals in diesem Jahr auf über 25 Grad Celsius.
Schon am Morgen dürfte bei rund 20 Grad die Kleiderwahl leichtfallen: T-Shirt, kurze Hosen, Kleid, Sonnenbrille. Der Wind spielt heute keine Rolle, umso wärmer fühlt sich dieser Mittwoch an. Auch Wolken werden Sie keine am Himmel finden. Das heißt für alle, die sich heute viel im Freien aufhalten: Sonnencreme nicht vergessen!
Nur mäßiger Pollenflug Allergiker können das schöne Wetter ebenfalls genießen. Allenfalls Gräserpollen fliegen in diesen Tagen durch Stuttgart. Der nahezu nicht vorhandene Wind hilft jedoch, so bleibt die Belastung für Betroffene auf leichtem Niveau.

Perfekte Bedingungen für aktive Stuttgarter

Die Temperaturen kühlen auch nach 18 Uhr nicht schlagartig ab. Gute Voraussetzungen also für einen Besuch im Biergarten zum Feierabend. Erst ab 22 Uhr fällt das Thermometer unter 15 Grad Celsius. Wer lange aushält, darf den Pullover also nicht vergessen.

Wer es gerne sportlicher möchte, der kann sich in den Abendstunden auf perfekte Bedingungen freuen: Fußball, Tennis, Laufen, Radfahren Schwitzen im Freien hat unter klimatischen Gesichtspunkten heute keinerlei negative Nebenwirkungen. Die Ozonbelastung bleibt unter den gefährlichen Grenzwerten. Auf künstliche Beleuchtung können Sie inzwischen bis 20.30 Uhr verzichten. Die Sonne verabschiedet sich heute erst um 21.26 Uhr.

Denken Sie an Ihre Pflanzen

Auch in den kommenden Tagen wird sich die Sonne gegen Wolken, Wind und Regen durchsetzen. Denken Sie aus diesem Grund an Ihre Pflanzen, die im Gegensatz zu uns nicht immer auf Niederschlag verzichten können. Auch Ihr Auto freut sich über Pflege. Da die kommenden Tage trocken bleiben, können sie sich am Ergebnis auch länger erfreuen.

 

 

Wenn Maschinen für Maschinen schreiben

Weil es einfacher ist, Zeitungsmeldungen zu schreiben als Schach zu spielen, haben die ersten Roboterjournalisten den Turing-Test schnell bestanden: Bei einfachen Meldungen kann man nicht herausfinden, ob der Text von einem Menschen oder von einer Maschine geschrieben wurde. Denn eine einfache journalistische Meldung gibt Antwort auf die berühmten sieben journalistischen W-Fragen: Wer? Was? Wann? Wo? Wie? Warum? Woher/welche Quelle? Oft kann diese Fragen ein Computer genauso gut beantworten. Und, machen wir uns nichts vor, Menschen verwenden für diese Art von Text auch nur die immer gleichen Textbausteine.

Zentral ist die Geschwindigkeit: Die vom Computer verfassten Texte stehen ratzfatz bereit, da muss kein Journalist geweckt werden, kein Kaffee gekocht, kein Verb gesucht und keine Überschrift von Hand formatiert werden… und wer als Erster meldet, kriegt viele Klicks. In diesem Sinne muss „Verständlichkeit“ neu definiert werden, denn in erster Linie geht es ja darum, dass diese von Computern verfassten Texte von anderen Computern schnell gefunden werden.

Ursprünglich sind Zeitungen aus dem Bedarf nach genau dieser schnellen und nüchternen Information entstanden, nämlich weil die Wirtschaft Nachrichten über Schiffsuntergänge,
politische Krisen oder den Ausbruch von Kriegen brauchte. Im Mittelalter übernahmen von Hand abgeschriebene Kaufmannsbriefe diese Aufgabe. Die ersten gedruckten Zeitungen
erschienen dann zu Beginn des 17. Jahrhunderts, wie es hieß: „Zur befürderung unnd gewinnung der Zeit“, die sonst mit „Abschreiben“ verbracht worden war. Sukzessive kamen
dann zur Nachrichtenproduktion neue Formate wie Leitartikel, Reportagen, Kommentare, Portraits, Glossen und Interviews hinzu.

Mit Hilfe der schreibenden Algorithmen sollen Journalisten genau dafür wieder mehr Zeit gewinnen: vielschichtige Zusammenhänge recherchieren und beschreiben, statt schnöde Nachrichten produzieren. Das wäre schön. Theoretisch. Warum aber befürchte ich, dass ich nur immer noch mehr zugemüllt werde mit austauschbarem „Bliblablo“? Weil sich viele Verleger und Content-Manager über Algorithmen freuen, die weder Gehalt noch Krankenversicherung
brauchen und trotzdem viele irgendwie verständliche Sätze auf die Seiten bringen. Egal, soll mein Computer halt den langweiligen Unfug lesen.

Herzlich,
Ihre Susann Mathis

Mister FZI: Professor Peter Lockemann

1972 wurde in Karlsruhe die Fakultät für Informatik gegründet, im ­gleichen Jahr trat auch Peter Lockemann seine Professur in Karlsruhe an. Das Leben des 1935 geborenen Lockemanns ist durchgängig eng mit der Entwicklung der Disziplin Informatik verbunden – auch wenn diese am Anfang noch gar nicht so hieß. Er hat – unter anderem – das FZI mitgegründet, über ­hundert wissenschaftliche Artikel und vier Lehrbücher geschrieben, er hat regelmäßig Gastprofessuren im Ausland und Berateraufgaben für Ministerien wahrgenommen und zehn seiner Studenten sind heute selber Professoren. 2005 wurde Lockemann das Verdienstkreuz am Bande verliehen, die Frankfurter Johann Wolfgang Goethe-Universität verlieh ihm 2003 für seine Verdienste in der Forschung und als Förderer des Wissenstransfers in die Unternehmenspraxis die Ehrendoktorwürde. Ich treffe ihn in seinem Büro im Forschungszentrum Informatik, wo er dem VKSI-Magazin für die Reihe KARLSRUHER KÖPFE einige Fragen beantwortet.

Herr Professor Lockemann, wann und wie sind Sie während Ihres Studiums der Nachrichtentechnik zur Rechnertechnologie gekommen?

Prof. Lockemann: Als Robert Piloty frisch habilitierter Privatdozent in München war, hörte ich 1956, während meines Studiums der Nachrichtentechnik, seine Vorlesung über die Grundzüge der Rechnertechnik von. Als Deutschland 1954 erlaubt wurde, Forschungsprogramme im Bereich Rechnertechnologie einzurichten, entwickelte sein Vater Hans Piloty zusammen mit dem Mathematiker Robert Sauer an der TH München die PERM (Programmgesteuerter Elektronischer Rechenautomat München). Die PERM wurde lange Jahre im Rechenzentrum der TH München und bei der Ausbildung von Entwicklungsingenieuren für die deutsche Computerindustrie benutzt. Heute steht sie im Deutschen Museum in München. Ich habe als Werkstudent dort erst mal Schaltkreise verlötet und Magnetköpfe für den Trommelspeicher zusammengebaut , meine Diplomarbeit zum Magnetkernspeicher gemacht, promoviert habe ich dann in Transistortechnik.

1963 sind Sie nach der Kalifornien ausgewandert, um dort am Caltech zu arbeiten. Das California Institute of Technology, gehört laut diversen Rankings zu den zehn besten Universitäten der Welt. Womit haben Sie sich dort beschäftigt?

Prof. Lockemann: Das waren prägende Jahre. Zum einen bin ich erst dort mit der Softwaretechnik – naja, das war eigentlich noch Programmierung – in Berührung gekommen. Zum zweiten gab es dort gar keine Computer Science, sondern ein »Information Science«-Programm, das anwendungsgetrieben war. Zunächst habe ich in einer Gruppe gearbeitet, die Biosignale ausgewertet hat: Wir haben Experimente mit Sonden in Fliegen­augen durchgeführt und schon damals große Datenmengen produziert und ausgewertet. Später wechselte ich in eine sozialwissenschaftliche Gruppe, die Sprachwissenschaft in Verbindung mit der Auswertung anthropologischer Daten betrieb. So bin ich mehr oder weniger zufällig in die Datenbanktechnik geraten. Wir haben viel experimentiert und waren eine der ersten, die Recovery-Techniken und einen softwarebasierten virtuellen Speicher entwickelten. Unser Datenbanksystem war graphbasiert – damals nicht unüblich, aber erst heute wieder aktuell. Doch unsere Ansätze haben zu wenig Leistung gebracht. Rückblickend wäre das die Zeit gewesen, zu IBM zu wechseln.

Nach sieben Jahren sind Sie 1970 dann doch wieder zurück nach Deutschland gegangen.

Prof. Lockemann: Meiner Frau und mir hatte es in Kalifornien sehr gut gefallen, doch die Kinder waren klein und wir wollten eine klare Entscheidung für ihre Schulzeit treffen. In Deutschland habe ich dann in Bonn bei der GMD (damals: Gesellschaft für Mathematik und Datenverarbeitung mbH) gearbeitet und war involviert in ein Projekt zur Entwicklung eines juristischen Informationssystems. Dieses Fachinformationssystem stellte die Gesetzeslage und die Urteile für Juristen in einem »Information Retrieval System« zusammen und – darauf bin ich durchaus stolz – existiert heute noch. Von Karlsruhe erhielt ich dann die Aufforderung, mich um den Lehrstuhl Programmiersprachen zu bewerben. Das habe ich allerdings abgelehnt, aber Universitäten waren von jeher flexibel, und wir haben uns auf eine Widmung in Richtung Datenbanken geeinigt.

Sie haben in einer Zeit in der Informatik begonnen, als dieses Fachgebiet noch ganz jung war und Experten noch alle Teildisziplinen überblicken und durchschauen konnten…

Prof. Lockemann: … hier sollte man sich keine Illusionen machen, diese Phase ging sehr schnell vorbei. Schon als ich Anfang der Siebzigerjahre nach Karlsruhe kam, war das Gebiet so breit, dass man nicht mehr überall in die Tiefe gehen konnte.

Sowohl in Deutschland wie auch in den USA hat man sich allerdings schwergetan, diese Disziplin zu akzeptieren. In den Vereinigten Staaten zum Beispiel war Computer Science, wie dort Informatik hieß und immer noch heißt, viel enger aufgestellt. Mein Bereich, Datenbanktechnik, war lange Zeit nicht einmal Teil der Computer Science sondern bei den Business Schools mitgelaufen.

Ich selber bin durch meine Erfahrungen mit Anwendungen geprägt worden und habe diese auch immer gesucht. Später waren dies vor allem Produktionstechnik, Elektronikentwurf, Verkehrswesen und Gebäudearchitektur. Ich habe deshalb immer stark interdisziplinär gearbeitet. Ich habe mich auch nicht als reinen Technologen gesehen. Neue Anwendungen bedürfen aber natürlich auch neuer Technologien, und ich hatte auch immer Mitarbeiter, die sehr erfolgreich diese Technologien entwickelten. Vielleicht wäre es korrekter zu sagen, dass ich eine Neigung zu top-down Vorgehen habe. Ich habe deshalb den Datenbankbereich immer als Softwaretechnik verstanden und dort als ausgesprochene Systemtechnik. Ähnlich wie bei Betriebssystemen habe ich Architekturfragen als zentral gesehen.

Um welche Probleme zu lösen?

Prof. Lockemann: Nichtfunktionale Kriterien wie Performanz haben über 30 Jahre lang die Datenbankarchitektur dominiert, genauer die Langsamkeit des Hintergrundspeichers im Vergleich zum Hauptspeicher. Auf diesem Missverhältnis bauten die Architekturfragen auf, also: Wie lässt sich die Zugriffslücke überbrücken, so dass sie in der Anwendung nicht in Erscheinung tritt? Und so wie die Bedarfe gewachsen sind, so ist auch das Problem größer geworden. Die Übertragungsrate von der Platte in den Hauptspeicher hat sich von etwa 1 MB/s 1970 auf etwa 250 MB/s 2010 gesteigert. Heute beträgt die Zugriffslücke etwa 106, so stark unterscheiden sich heute die Geschwindigkeiten beim Zugriff auf Hauptspeicher und Hintergrundspeicher (Platte). Nun hat mit der Marktreife der SSD ein ganz neues Kapitel begonnen.

Dazu kamen über die Jahre Gastprofessuren am CalTech und am MIT, und Beraterfunktionen bei Wirtschaft und Ministerien und – für Karlsruhe besonders bedeutend – 1985 gründeten Sie gemeinsam mit mehreren Kollegen das Forschungszentrum Informatik Karlsruhe (FZI), waren dann lange Zeit dessen Vorstand (daher Ihr Spitzname »MisterFZI«). Was war Ihr wichtigstes Motiv dafür?

Prof. Lockemann: Um es mit dem modernen Slogan des KIT zu sagen: Innovation. Innovation ist der Transfer von Forschungsergebnissen in die wirtschaftliche Nutzung. Das Ziel des Forschungszentrums Informatik war und ist der Technologietransfer von der Forschung in der Karlsruher Informatik in die Wirtschaft. Wir waren damals acht Professoren, und hatten rein altruistische Motive, wenn man mal davon absieht, dass wir uns natürlich über zusätzliche Ressourcen für die Forschung gefreut haben. Für jeden persönlich bedeutete das aber viel mehr Arbeit.

Sind Sie mit der Entwicklung des Forschungszentrums Informatik zufrieden?

Prof. Lockemann: Ich bin ja nur noch – wenn auch sehr engagierter – Beobachter. Ich bin begeistert, was die jungen Kollegen in den letzten Jahren daraus gemacht haben. Ich hatte am Ende eine neue und wie es scheint schlagkräftige Organisation umgesetzt. Zunächst war das FZI auf einzelne Professoren zugeschnitten, heute gibt es vier große, kollegial geführte Forschungsbereiche, die sich als eine sehr gutes Basis für Wachstum erwiesen haben.

Inhaltlich hat sich das Bild seit der Jahrtausendwende komplett geändert. Angefangen haben wir mit »Informatik für die industrielle Produktion«. Heute ist das FZI viel breiter aufgestellt – kein Wunder, wenn man bedenkt, dass Informatik heute in alle Lebensbereiche eindringt. Ich kann das an meiner eigenen Disziplin sehen, wo sich unter dem Stichwort »Big Data« sich vollkommen neue Herausforderungen herausbilden: eine enorme Informationsmenge im Web, relativ unstrukturiert und textorientiert, dazu embedded systems, die Datenströme überall erfassen, und schließlich die globale Verteilung der Daten.

Welche Schwierigkeiten musste das FZI dabei überwinden?

Prof. Lockemann: Natürlich hat das Forschungszentrum Informatik das Auf und Ab der Wirtschaft mitgemacht, übrigens immer etwas zeitverzögert. Anfangs kamen unsere Kunden aus den F. & E. Abteilungen der Großunternehmen. Als diese Anfang der Neunzigerjahre sukzessive abgebaut wurden, hat das Forschungszentrum Informatik sich extrem stark auf den Mittelstand konzentriert. Das hat uns damals zwar politisch großes Lob eingebracht, uns aber auch behindert, da wir sehr viel Zeit für die Akquise aufwenden mussten. 2002 hat uns das in echte Schwierigkeiten gebracht. Die bieten aber eben auch Chancen und die wurden – auch dank des Generationenwechsels – hervorragend genutzt.

Mit seinen klar gesetzten inhaltlichen Schwerpunkten hat sich das Forschungszentrum Informatik deutlich als Zentrum für Innovationen im IT-Bereich positioniert. Somit ergänzt es sich hervorragend mit der Fakultät für Informatik und ist heute weit über die Grenzen von Baden-Württemberg hinaus anerkannt.

Vor 40 Jahren wurde die Fakultät gegründet, vor 40 Jahren haben Sie Ihre Professur angetreten – und Sie sind unverändert präsent in der IT-Szene. Womit beschäftigen Sie sich heute vor allem?

Prof. Lockemann: Mir bleibt viel Zeit für Privates, zum Beispiel beschäftige ich mich mit der Sprachförderung in Brennpunkt-Kindergärten und ich reise mit meiner Frau viel in der Welt herum.

Aber auch wenn ich vielleicht manchmal bedauern mag, dass ich mich zu früh und zu stark auf die Anwendungen der Informatik konzentriert habe, so habe ich doch einige Themen gefunden, die mich weiter faszinieren, aktuell sind das etwa über das Cyberforum die Projekte Smarter City der Stadt Karlsruhe und Smart Business IT des Landes. Um bei einem Projekt wirklich in die Tiefe zu gehen, braucht man ein großes Forschungsteam und das habe ich nicht mehr. Was ich dagegen kann, ist Projektideen entwickeln und mich an der Entwicklung der großen Linie beteiligen, und da bringe ich mich immer noch im FZI ein. Es erstaunt mich vielleicht selbst am meisten, aber es ist wahr: so schnell veralten Erfahrungen dann eben doch nicht.

Professor Lockemann, herzlichen Dank für dieses Gespräch!

Karlsruhe ist Stadt der jungen Forscher 2012

Karlsruhe hat sich im bundes­wei­ten Wettbewerb durch­ge­setzt und ist Deutsch­lands „Stadt der jungen Forscher 2012“. Die Auszeich­nung wird von der Körber-Stiftung, der Robert Bosch Stiftung und der Deutsche Telekom Stiftung verliehen. Die drei Stiftungen verfolgen mit dem Projekt ein gemein­sa­mes Ziel: Sie wollen Kinder und Jugend­li­che für Wissen­schaf­ten begeistern. Mit dem Preis zeichnen sie Städte aus, die sich in besonderer Weise durch Koope­ra­tio­nen von Schulen und wissen­schaft­li­chen Einrich­tun­gen hervortun und ihr Engagement auf diesem Feld inten­si­vie­ren möchten. Mit der Auszeich­­­­nung ist eine Förderung von bis zu 65.000,- € verbunden.

Dss Gewinnerkonzept wurde in enger Abstimmung mit rund 40 Partnern aus Wissen­­­schaft und Wirtschaft in Karlsruhe entwickelt. Mit ihrer Unterstützung und dem Fördergeld konnten 25 Karls­ru­her Schüler­­for­­­schungs­­­pro­jekte gefördert werden. Auf dem „Fest der jungen Forscher“ im Juni 2012 präsen­tier­ten die Nachwuchs­wis­­­sen­­­schaft­­­ler vor mehr als 30.000 Besuche­rin­­­nen und Besuchern ihre Ergebnisse.


Wichtiges Konzeptelement wird fortgeführt: OsKarl – der junge Wissenschaftspreis aus Karlsruhe


OsKarl - der junge Wissenschaftspreis aus Karlsruhe

Karlsruhe hat den Titel­ge­winn „Stadt der jungen Forscher“ zum Anlass genommen, eine neue Auszeich­nung für Schülerfor­schung­pro­jekte zu etablieren. Auf dem „Fest der jungen Forscher“ im Juni 2012 wurden zum ersten Mal Schülerpro­jekte aus Karlsruhe und der Region mit einem „osKarl“ prämiert.

Der Preis wird seither regelmäßig verliehen und ist fester Bestand­teil der Karlsruher Nachwuchsförderung.


Das „Fest der jungen Forscher“ sowie das gesamte Projekt „Stadt der jungen Forscher 2012“ fanden in Zusam­­­­men­ar­­­­beit mit der Deutschen Telekom Stiftung, der Robert Bosch Stiftungund der Körber-Stiftung statt.

Identität: Am Anfang steht die Analyse

Einmalig, der unverwechselbare Fingerabdruck:

Es ist nicht leicht, das Einmalige und Unverwechselbare herauszuarbeiten und für die Kommunikation zuzuspitzen. Wer nicht präzise arbeitet, findet sich am Ende mit einer austauschbaren Positionierung wieder.
Am Anfang jeder Kommunikationsarbeit steht daher die klare Analyse: Welche Aufgaben und Eigenschaften zeichnen uns aus? Was ist das Besondere daran? Erst auf dieser Grundlage kann man die Positionierung eines Unternehmens für seine Kommunikation zuspitzen. Je klarer man sich über seine Identität ist, desto eindeutiger kann man das auch nach außen tragen. Aus dem Herzen spricht mir da Jeff Haden in seinem Beitrag „Stop Using These 16 Terms to Describe Yourself„.

Beispiel: Viele Unternehmen sind innovativ. Aber macht sie das auch von ihren Mitbewerbern unterscheidbar? Es gibt unzählige Claims mit „Innovation“ oder „innovativ“:

Innovate: digital./ Passion for innovation. Love of motion./ Climate of innovation./ Beyond innovation./ Innovation in motion./ Stärker durch Innovation./ Innovations for sale./ Innovation quality./ Massiv. Innovativ. Einzigartig./ Innovation in displays./ Agenturgruppe für innovative Kommunikation./ Innovators in propulsing technology./ Innovation driven by emotion./ Innovation in Insulation./ Innovativ denken, zuverlässig handeln – mit Leidenschaft und Kompetenz./ Innovationthat works./ Innovation by Matsuura./ Leading fiber innovation./ Innovation starts here./ Ihre innovative Investment-Versicherung./ Innovative Wartungschemie./ Innovation, together we do it./ Wertvoll durch Innovation./ Wissen. Information. Innovation./ Das innovative Anlegemagazin./ Exklusiv & innovativ./ Menschen. Innovationen. Gesundheit./ Innovativ in Energie./ Power. Innovation. Design./ Innovationen mit Esprit!][ Erfahrung & Innovation./ Innovative Anlageprodukte für Privatanleger./ Innovationen mobiler Küchentechnik./ Innovations for a better world./ Werte schaffen durch Innovationen./ Value through innovation./ Qualität und Innovation.][ Swiss innovation./ Innovative connections./ Die viscoelastische Schlaf-Innovation./ Innovation at work./ Leading innovation./ Technology for innovators./ Innovative Trockenkleber./ Inspiring innovations./ Ein Pharmaunternehmen mit Tradition und Innovation./ Locate. Integrate. Innovate./ Innovationen für erhöhte Wirtschaftlichkeit & Umweltschutz./ Deutschlands innovativster Technik-Verlag./ Innovativ. Nachhaltig. Umweltbewusst. – Wir für EMAS./ Innovation braucht Kompetenz./ Innovators of inertial alignment./Innovation by passion./ Innovations for every lifestyle./ Die größte technische Innovation, auf die ein Urinstrahl treffen kann./ Powered by innovation./ Global partner in innovation./ Innovativ seit 1850./ The strength of innovation./ Die innovative Alternative./ Das M.I.T.-Magazin für Innovation./ The innovators of comfort./ Instinctive innovation./Innovationen auf Erfolgsbasis./ Das Magazin für den innovativen Mittelstand./ Connect with innovation./ Unlimitedinnovations./ Innovative Haustechnik zum Wohlfühlen./ Inspired by innovation./ Innovation that matters./ InnovationSchirm./ Innovationen weltweit!/ Pioneer in innovation./ Das innovative Fondsmagazin./ Sicherheit – Innovation – Präzision./ Where chemistry and innovation come together./ Addicted to innovation./ Innovation, Leistung, Zuverlässigkeit./ Innovative Käsetradition./ A series of innovations./ Erfahrung. Macht. Innovativ./ Innovation durch Integration./ Our innovation – your productivity./ Transforming the process of innovation./ Ihre Ideen. UnsereInnovationen./ Die innovative Wärmetherapie./ Innovative ingredients./ Passionate about innovation./ Innovation in Keramik./ Die innovativsten Monitore./ Sound innovation./ Innovativ – kreativ./ The source of innovation./ The power to innovate./ …

 

www.globe-pro.de

Immer mehr Unternehmen stehen im weltweiten Wettbewerb. Immer mehr Menschen arbeiten in der weltweiten, modernen Dienstleistungswirtschaft. Das stellt vollkommen neue Herausforderungen − an die Unternehmen und an die Menschen. Ihre Kompetenz und Qualifikation, nämlich die Fähigkeit, in weltweiten Wertschöpfungsketten agieren zu können, entscheidet über ihren Erfolg.
Unter der Federführung des Instituts für Sozialwissenschaftliche Forschung e.V. (ISF München) arbeiten im Projekt GlobePro Unternehmen, Institutionen der Aus- und Weiterbildung, Verbände, Sozialpartner und Experten zusammen. Das Forschungsprojekt ist vom Bundesministerium für Bildung und Forschung, BMBF, gefördert.

Mit der Seite globe-pro.de wurde nicht nur das Projekt dokumentiert, sondern vor allem die Kooperation und der Austausch der Projektpartner untereinander gefördert.