Blog

In ihrem Beitrag „Mind the Gap“ der aktuellen Ausgabe des Manager Magazin (3/2014, Seite 82 ff.) wird Eva Müller zum Thema „Digitale Infrastruktur“ deutlich und fasst ernüchternd zusammen:

Verglichen mit Asien ist Deutschlands Internet so schlecht und rückständig, dass es allmählich zu einer echten Gefahr für den Standort wird.

Sie bezieht sich dabei auch auf Zahlen des „State of the Internet“ Report zum dritten Quartal 2013 unseres Kunden Akamai.

Auch wir haben in einem Video-Statement vor ein paar Wochen ähnlich resümiert:

Liebe Frau Müller, danke für diese klaren Worte. Wir sehen das genauso.

menuseperator

Anbietern proprietärer Systeme stehen stürmische Zeiten ins Haus. Open Source ist angetreten, eine der letzten Bastionen zu erobern, nämlich die IT-Systeme von Netzbetreibern. Auch dazu gab es übrigens wichtige Ankündigungen auf dem Mobile World Congress Ende Februar in Barcelona, etwa von Dell und von Alcatel-Lucent. Aber der Reihe nach: Ob Breitbandzugang, Fest- oder Mobilnetz, bislang besteht die große Mehrzahl der Netzelemente für Sprach- und Datendienste aus proprietärer Hardware und nahtlos damit verzahnter Software. Implementierung und Betrieb sind teuer und zeitraubend. Bei Network Functions Virtualization (NFV) hingegen, über das unter anderem Alcatel-Lucent, Dell und Red Hat in Barcelona sprachen, geht es um die Abkehr von dedizierter Hardware und die Umsetzung von Netzfunktionen in Software. Das Ganze läuft auf handelsüblichen x86-Servern unter Linux.

Wichtige Anregungen zu NFV kommen übrigens aus dem Open-Source-Projekt Open Daylight. Da ist der Name Programm. Mitglieder sind Netzwerkausrüster wie Juniper Networks und Huawei, aber auch Dell, Red Hat, Intel und einige andere. Alle Komponenten der Open-Daylight-Software stehen unter Open-Source-Lizenzen.

In der Finanzindustrie hat sich Linux bereits etabliert und für frischen Wind gesorgt. Als nächstes folgt die TK-Branche. Es gibt also genügend Gründe dafür, dass auch Unternehmen sich endlich von ihren Altlasten in den Rechenzentren befreien. Proprietären Systemen bleiben allenfalls Nischen, in allen anderen Bereichen wird Open Source für Innovationen sorgen.

menuseperator

Gerade schließt der Mobile World Congress in Barcelona wieder seine Tore und nicht wenige bleiben etwas ratlos zurück angesichts der zahlreichen Vorstellungen neuer Tablet-PCs, Smartphones und neuerdings auch Wearables, die in den vergangenen Tagen wie ein Platzregen auf uns niedergingen. Die vielen Presseberichte spiegeln vor allem eines wider: „Mobil“ ist der wegweisende Trend und wird für Anwender immer wichtiger. Das belegt auch eine aktuelle Studie des Branchenverbands BITKOM, nach der sich die Tablet-Nutzung bereits bei knapp einem Viertel der Deutschen ab 14 Jahren durchgesetzt hat – eine Verdopplung im Vergleich zum Vorjahr.

Der Trend betrifft nicht nur den Consumer-Markt, sondern hat auch im Unternehmensumfeld deutliche Spuren hinterlassen. Zugegeben, die Tatsache, dass der Mensch des 21. Jahrhunderts bei der Arbeit immer mehr Wert auf Mobilität und Flexibilität legt, ist nicht neu. „Bring your own device“ oder kurz BYOD ist hier das große Schlagwort und wird bereits seit einigen Jahren gründlich und ausführlich in der Fachwelt diskutiert. Die Gründe für die Tendenz dürften hinlänglich bekannt sein. Der Siegeszug von Smartphones und Tablets sorgte nicht nur für eine immer größere Bereitschaft der Nutzer always on zu sein, sondern brachte auch mit sich, dass die schicken Geräte vermehrt auch für berufliche Zwecke genutzt wurden, bis sie von ihren Benutzern schließlich als vollwertige Arbeitsmittel angesehen wurden, mit denen sich überall und zu jeder Zeit mehr oder weniger dringliche Aufgaben erledigen lassen.

Gleichzeitig sorgte der Trend auch für ein stärkeres Bewusstsein für den Faktor „Design“ bei Arbeitsgeräten. Bei IT-Produkten ist heutzutage nicht mehr allein eine möglichst hohe Leistungsfähigkeit gefragt, sondern die Geräte müssen vor allem auch den ästhetischen Ansprüchen ihrer Nutzer gerecht werden. Für ein ansprechendes Tablet- oder Notebook-Design sind Kunden sogar bereit, auch mal den ein oder anderen Euro zusätzlich auszugeben.

Die meisten Hersteller trugen diesen neuen Anforderungen ihrer Kunden lange Zeit Rechnung, indem sie sich lediglich darauf konzentrierten, ursprünglich für Consumer konzipierte Geräte auch für den Business-Einsatz zu optimieren – beispielsweise indem sie mit mehr Leistung, einer besseren Grafik und größerem Speicher ausgestattet wurden. Die eigentlichen Business-Linien blieben oft unangetastet. Zum Glück scheint nun aber ein Umdenken stattzufinden und etwas mehr Mut in die Design-Labs einzukehren, denn das Angebot für Geschäftskunden wird immer vielfältiger.

Besonders erfreulich ist, dass sich die Öffnung offenbar in zwei Richtungen vollzieht. Einerseits gewinnen ausgewiesene Business-Geräte immer mehr an Boden in stark designorientierten Produktkategorien wie Tablets und Convertibles. Auf der anderen Seite erfahren viele „klassische“ Business-Produkte wie zum Beispiel mobile Workstations ein komplettes Redesign und sind rein äußerlich teils nicht mehr von stylischen Ultrabooks zu unterscheiden.

Die Befürchtung der Hersteller, Geschäftskunden könnten sich von etablierten Produktreihen abwenden, weicht dem Bewusstsein, dass die Schale eines Notebooks oder Desktop-PCs heute ebenso viel Gewicht besitzt wie dessen Innenleben. Dass diese Erkenntnis angekommen zu sein scheint, wurde in Barcelona einmal mehr eindrucksvoll gezeigt.

menuseperator

Als die CeBIT im vergangenen Jahr nach „Shareconomy“ als Top-Thema für die CeBIT 2014 „Datability“ angekündigt hat, schien es erst mal, als wäre ein Trend geboren. Zumindest was kreative Wortschöpfungen anbelangt.

Denn auch das diesjährige Motto, das sich aus dem Markttrend Big Data sowie den Möglichkeiten seiner nachhaltigen und verantwortungsvollen Nutzung (Englisch: ability, sustainability, responsibility) zusammensetzt, will sinnstiftend sein und meint: „Die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen.“ So definieren es die Macher der CeBIT. Meint übersetzt, Big Data erleichtert das Leben – wenn man sinnvoll damit umgeht.

Die Peta- und Exabyte der heute in Unternehmen generierten Daten wollen, ja müssen schließlich strukturiert werden um daraus verwertbare Ergebnisse zu ziehen und letztlich die richtigen Informationen zur richtigen Zeit am richtigen Ort bereitzustellen. Egal ob es um Bild- und Videodaten, Analysedaten geschäftskritischer Anwendungen in Unternehmen und Forschung oder schlicht um das Datenvolumen aus Kommunikation und Social Media geht – Data Tiering ist das Schlüsselwort: Schließlich geht es um nichts geringeres als den Unternehmenserfolg. Bei Begriffen wie Business Intelligence, Business Analytics, Data Warehouse und Data Mining bekommt so mancher Unternehmenslenker schon mal glänzende Augen.

Strukturanalyse und Verfügbarkeit von Daten sind aber nur die eine Seite der Medaille, Datensicherheit und Zugriffskontrolle die andere. Welche Büchse der Pandora sich hier auftut, weiß seit Edward Snowden auch die breite Öffentlichkeit.

Gerade deshalb macht es Sinn, dass die Industrie den Stier bei den Hörnern packt und dem sinnvollen und sicheren Umgang mit Daten hohe Priorität einräumt. Als Motto der kommenden CeBIT haben die Verantwortlichen damit also ein gutes Näschen bewiesen. Wollen wir hoffen, dass es nicht bei Lippenbekenntnissen bleibt.

Die GfdS (Gesellschaft für deutsche Sprache) wird sich auf jeden Fall freuen, dass dem Nachschub an Wortschöpfungen auch 2014 keine Grenzen gesetzt sind und sich die Anwärter für das „Wort des Jahres 2014“ schon mal in Startposition bringen.

In diesem Sinne, eine erfolgreiche CeBIT 2014!

menuseperator

Die zahlreichen Datenskandale der letzten Zeit haben dem Cloud-Computing-Geschäft in Deutschland einen deutlichen Dämpfer verpasst. Einer kürzlich veröffentlichten BITKOM-Studie zufolge hat ein beträchtlicher Teil der befragten Unternehmen laufende Projekte bereits auf Eis gelegt oder geplante Cloud-Projekte vorerst zurückgestellt. Auch wenn damit nicht das Ende der Cloud besiegelt ist, lässt sich eines nicht von der Hand weisen: die Verunsicherung ist groß. Vorbehalte, vertrauliche Daten in die Cloud auszulagern und dort zu speichern, überschatten im Moment die positiven Argumente, die für den Einsatz einer Cloud sprechen, nämlich mehr Flexibilität, nahezu unbegrenzte Skalierbarkeit und niedrigere Kosten.

Die Situation ist wie sie ist. Offen bleibt lediglich, wie die deutsche IT-Branche mit dem gewachsenen Wunsch nach mehr Datensicherheit umgeht. Können deutsche IT-Provider vielleicht sogar von der angespannten Lage profitieren? Gibt es einen Standortvorteil Deutschland?

Die Antwort lautet ganz klar: Ja!

Endlich setzen sich die Unternehmen mit dem Thema Sicherheit auseinander und sind gewillt, mehr Zeit und vor allem Geld zu investieren. Es wird genauer hingeschaut. Und gerade hier kommt der Standortvorteil Deutschland zu tragen.

(Vermeintlich) sichere lokale Rechenzentren sowie die Einhaltung vergleichsweise strenger deutscher Datenschutz-bestimmungen sorgen für einen Vertrauensvorsprung.

Unternehmen, insbesondere Mittelständler, die von Grund auf skeptisch sind, haben bei internationalen Cloud-Riesen wie Google, Amazon oder Microsoft oftmals das Gefühl, die Kontrolle abzugeben. Sie wissen meist nicht, wo genau ihre Daten gerade liegen und welche Datenschutzbestimmungen dort gelten.

In Deutschland muss das Cloud Computing mit dem Bundesdatenschutzgesetz konform sein. Die Verarbeitung personenbezogener Daten unterliegt strengen Regeln. Ein beachtlicher Zweifel besteht hingegen, ob ähnlich strikte Datenschutzbestimmungen im Ausland gelten beziehungsweise eingehalten werden.

Heimische IT-Firmen sollten genau diesen Punkt klarer herausstellen, denn der deutsche Rechenzentrumsstandort kann ein wesentliches Kriterium sein, wenn Unternehmen vor der Entscheidung stehen, den Weg in die Cloud zu wagen.

menuseperator

Bilderrätsel für Marketing- und PR-Schaffende: Was sieht man hier? Und noch viel wichtiger: Was sieht man nicht?

Frage eins ist leicht zu beantworten. Eine Collage aus Firmen- und Produktnamen, wie sie in zufällig ausgewählten Online-Medien veröffentlicht wurden. Ansonsten sieht man nichts. Und zu diesem Nichts zählen auch Markenzeichen-Symbole und Copyright-Zeichen wie ®, © oder ™. 

Der Grund dafür ist einfach: Kein Journalist schreibt über Samsung®, Ford©, IBM™ oder deren Produkte® und Lösungen™. Das ist nicht sehr lesefreundlich und interessiert eh keinen Menschen. So sehr Sie also von der Notwendigkeit dieser Symbole in Presseinformationen oder -texten überzeugt sind: es hilft nichts, sie werden am Ende immer rausgestrichen. 

menuseperator

Im Netz wird es immer enger und enger: bei der Suche nach einer freien Domain haben Unternehmen (und Privatleute) kaum mehr Aussicht auf Erfolg. Doch heute ab 17 Uhr ist Abhilfe in Sicht, denn die ersten neuen Top Level Domains (TLDs) mit den Endungen .bike, .clothing, .guru, .holdings, .plumbing, .singles (gibt's kein .couples?) und .ventures gehen an den Start.

Ob der deutsche Installateur sehnlichst auf die Domain .plumbing oder Joint-Venture-Firmen auf die Domain .ventures gewartet haben, ist nur schwer zu glauben. Aber vielleicht werde ich ja eines Besseren belehrt.

Viel spannender werden meines Erachtens aber die TLDs, die noch etwas auf sich warten lassen, wie zum Beispiel .shop, .web, .blog, .berlin, .bayern etc.

Doch auch bei den neuen Domainnamen gilt: Wer zuerst kommt, mahlt zuerst. Deshalb raten Webhoster dazu, dass Interessenten sich gleich bei mehreren Anbietern registrieren lassen, denn so erhöhen sich die Chancen, die Wunschdomain tatsächlich zu erhalten.

Wann kommen eigentlich .boring oder .grotty?  Ab 18 Uhr?

P.S.: Was halten Sie eigentlich von pr-com.guru?

menuseperator

Angefangen hat das Ganze völlig egoistisch: Vor fünf Jahren begann ein kleines Team von Facebook-Technikern mit den Arbeiten für ein besonders effizientes Rechenzentrum. 2011 ging Facebook-Chef Mark Zuckerberg dann mit den ersten Ergebnissen an die Öffentlichkeit. Parallel startete das Unternehmen das Open Compute Project (OCP) und legte die Baupläne und Spezifikationen für das von Facebook entwickelte Rechenzentrum offen. Dazu hat sich schnell eine beachtliche Bewegung Gleichgesinnter zusammengefunden, die sich Ende Januar dieses Jahres bereits zum dritten Mal im kalifornischen San Jose zu einem Summit trafen. In der Zwischenzeit entwickelten die OCP-Mitglieder mehrere Motherboard- und Server-Designs für Cloud-Projekte, die außer von Cloud-Betreibern vor allem von weltweit tätigen Finanzdienstleistern wie der Bank of America oder Goldmann Sachs aufgegriffen und umgesetzt wurden. Aber auch andere Branchen mit riesigem Rechenzentrumsbedarf zeigen Interesse, etwa die pharmazeutische Industrie oder die Telekommunikation.

Dem Open-Source-Gedanken zufolge sind die Hardware-Designs entsprechend einer Lizenz der Apache Software Foundation verfügbar. Vieles läuft bei OCP aktuell noch unter einer sogenannten Permissive-Lizenz, das heißt der Lizenznehmer kann Modifikationen der Designs vornehmen und die Ergebnisse werden dann „proprietär“. Um mehr Mitglieder zu gewinnen, will die OCP Foundation künftig eher zu einem GPL-ähnlichen Modell übergehen, wie es aus dem Open-Source-Software-Bereich rund um Linux bekannt ist. Hier kann jeder ein Design modifizieren. Wird das daraus entstehende Produkt verkauft, müssen die Änderungen der Community zugänglich gemacht werden.

Eines ist klar: Das Open-Source-Modell ist nicht länger auf Software beschränkt, sondern erobert weitere Anwendungsszenarien. Aus einer Community entstehen Produkte, deren Designs und die Weiterentwicklung mit anderen geteilt werden. Server-Designs sind nur ein Beispiel, längst wird auch an Switches gearbeitet.

Um noch einmal auf den Anfang zurückzukommen: Entstanden ist das OCP ja, weil Facebook mit den vorhandenen x86-Designs nicht zufrieden war und die Sache dann selbst in die Hand genommen hat. Offene Standards, konstitutiv für das Open-Source-Modell, werden so zu einem wichtigen Antreiber für schnellere Innovationen – und die sind nicht nur in der IT-Branche dringend notwendig. 

menuseperator

In wenigen Tagen wird Facebook zehn Jahre alt, und genau jetzt kommen immer mehr Studien zu Tage, die dem weltweit größten sozialen Netzwerk den Untergang prophezeien. So haben zwei Doktoren der Ingenieurswissenschaften der Universität Princeton ein wissenschaftliches Modell erstellt, das die Entwicklung von Facebook in den nächsten Jahren skizziert. Und das Ergebnis spricht für sich: Bis 2017 wird Facebook 80 Prozent seiner Nutzer verlieren.

Auch eine andere Studie sorgte zu Beginn des Jahres für Aufsehen, denn Mark Zuckerberg laufen die Teenies weg. Und somit seine zukünftigen User.

Und in Deutschland? Dem Social-Media-Entwicklungsland? Hier ist das derzeitige Nutzerverhalten ohnehin erschreckend. So zeigt eine aktuelle Studie, dass 60 Prozent der Deutschen das soziale Netzwerk überhaupt nie nutzen. Das sind wahrlich trübe Aussichten...

Doch was heißt das nun? Lohnt es sich für Unternehmen überhaupt noch, in Social Media zu investieren, wenn selbst das größte soziale Netzwerk dem Untergang geweiht ist?

Die Antwort ist klar. Auf jeden Fall.

Wichtig dabei ist aber, nicht den Trends hinterherzulaufen und zu versuchen, überall dabei zu sein. Denn gerade für Unternehmen, die im B2B-Bereich tätig sind, ist die Zielgruppe oft gar nicht so einfach zu finden. Häufig sind es kleine Experten-Foren, in denen sich die Opinion-Leader austauschen, oder Blogs, die den größten Mehrwert für die Kommunikation mit den Kunden bieten.

Jedoch das entscheidende Kriterium ist nicht, dass man weiß, wo sich die Zielgruppe aufhält, sondern, dass man wirklich in den Dialog treten möchte und diesen auch langfristig führen will.

Doch daran scheitert es leider viel zu oft.

menuseperator

Erst vor Kurzem wieder einen beliebten Streitfall gehabt: Ein in einer Pressemitteilung zitierter Experte bestand darauf, jedes Mal im Text mit Vor- und Nachnamen sowie einem „Herrn“ davor genannt zu werden. Stünde da lediglich der Nachname, so sein Einwand, käme das ziemlich rüde rüber.

Anscheinend wirken manche Dinge in Pressetexten auf den ersten Blick ungewöhnlich, die einem in den Medien völlig normal vorkommen oder erst gar nicht groß auffallen. So stört sich niemand daran, dass der Tagesschau-Sprecher jeden Abend lediglich von „Merkel“ redet. Auch in den Tageszeitungen wird dies so gehandhabt, zum Beispiel in der Süddeutschen:

Ramstetter selbst sagte am Sonntag der SZ: '"Ich habe Scheiße gebaut und die Zahlen geschönt. Daraus ziehe ich die Konsequenzen und übernehme die Verantwortung."

Bei der ersten Nennung den vollen Namen angeben, dann nur noch den Nachnamen – so entspricht es in Deutschland den journalistischen Gepflogenheiten. Und daran sollte sich auch ein Pressetext unbedingt orientieren. Das gilt ebenso für die „Frau“ und den „Herrn“ vor den Namen. Auch sie sind – übrigens ganz im Gegensatz zu England, Frankreich oder den USA – in den deutschen Medien völlig unüblich.

menuseperator

Facebook will seine mehr als eine Milliarde Nutzer besser verstehen. Dazu hat das Unternehmen vor Kurzem den Deep-Learning-Pionier Yann LeCun von der New York University engagiert. Deep Learning gehört zum Forschungsgebiet der Künstlichen Intelligenz und wird für die Analyse sehr umfangreicher Datenmengen eingesetzt. Forscher der Stanford University beispielsweise haben in diesem Umfeld zusammen mit Google ein Verfahren zur Gesichtserkennung entwickelt. Eine weitere Anwendungsmöglichkeit ist die sogenannte Phrasenerkennung. Hier geht es darum, ob zwei Sätze verschiedener Länge und Formulierung dieselbe Bedeutung haben. Nützlich ist das etwa, um Plagiate aufzufinden oder Texte zusammenzufassen.

Wenn Facebook Methoden der künstlichen Intelligenz einsetzt, machen sich einige Nutzer berechtigte Sorgen: Was passiert mit unseren Daten? Die einfachste Antwort darauf: Wer bei Facebook mitmacht, muss wissen, auf was er sich einlässt. Wer fürchtet, ausspioniert zu werden, sollte Facebook nicht nutzen. Nach allem was bekannt ist, wird Facebook maschinelles Lernen beispielsweise dazu einsetzen, um Prognosen zu treffen, welche Werbeanzeigen bei wem am besten ankommen. Ob Facebook dann in absehbarer Zeit klüger oder gar zu einem „intelligenten Wesen“ wird oder wie manche befürchten, die Nutzer besser ausspähen kann, sei dahingestellt.

Spannend finde ich Deep Learning auf jeden Fall. Eine Reihe interessanter Beispiele beschreibt Jürgen Schmidhuber, Leiter des Labors für Künstliche Intelligenz IDSIA in Lugano, auf seiner Homepage. Ob es in einigen Jahrzehnten Maschinen gibt, die den Menschen an Intelligenz übertreffen, kann heute niemand sagen. Aber Mitte der 1990er-Jahre konnte sich auch kaum jemand vorstellen, was wir heute alles mit unseren Smartphones, Tablets und all den verschiedenen Social-Media-Kanälen machen. Wichtig ist mitzuhelfen, dass Entwicklung und Umsetzung beim Deep Learning in gesellschaftlich akzeptablen Bahnen bleiben und der Schutz persönlicher Daten Vorrang hat.

menuseperator

Auch in diesem Jahr sind sie wieder ein Thema auf der CES: der vernetzte Kühlschrank oder die aus der Ferne gesteuerte Waschmaschine.

Neu ist das allerdings alles nicht. Schon seit Jahren werden solche Lösungen wiederholt auf Messen wie der CES oder IFA vorgestellt, etwa von Samsung, LG oder Bosch. Und „Hallo, hier spricht der Kühlschrank“ titelte die Zeit bereits im Jahr 1998. Wie sieht heute aber die Wirklichkeit im deutschen Haushalt aus? Kennt jemand jemanden mit dem vernetzten Kühlschrank? Sicher nur die wenigsten.

Und woran liegt das? Sicherlich nicht daran, dass es keine Lösungen gibt. Nein, sondern vielmehr eher daran, dass nicht alles, was technisch machbar ist, auch sinnvoll ist. Es mag schön sein, die Waschmaschine komfortabel aus der Ferne per Smartphone steuern zu können. Doch wofür? Muss die Wäsche nicht nach wie vor händisch in die Trommel gebracht werden. Und ist das erst einmal erledigt, können bei einem halbwegs zeitgemäßen Gerät wohl auch der Start des Wasch- und Trocknungsvorgangs programmiert werden. Was bringt dann noch die Fernsteuerung? Vielleicht die Info, dass der Waschvorgang ordnungsgemäß in-time zu Ende gebracht wurde? Nun ja, der Nutzen bleibt fraglich.

Nicht in Abrede gestellt werden soll natürlich, dass es sich bei den Themen Heimvernetzung und Smart Home mit Sicherheit um zentrale Zukunftsmärkte handelt. Allerdings ist zu differenzieren zwischen sinnvollen Anwendungen und Gadgets, die keinen erkennbaren Mehrwert bieten. Zu den Ersteren zählen auf jeden Fall Applikationen für die Gebäudesicherung, Überwachung und Zugangskontrolle, Klimatisierung und Heizungssteuerung oder Lichtregulierung. Zu den Letzteren aber sicher Geräte wie Herd, Mikrowelle, Kühlschrank oder Waschmaschine mit Internetanbindung. 

menuseperator

Nun ist sie auch schon wieder vorbei, die stade, entspannte und erholsame Zeit. Viele haben die Tage rund um Weihnachten und den Jahreswechsel genutzt, um auszuspannen, ein gutes Buch zu lesen, zu wandern oder einfach mal nichts zu tun. Relaxen, das Hirn lüften und Kraft für die Herausforderungen des neuen Jahres tanken. Und auch mal offline sein – oder die Web-2.0-Aktivitäten einschränken, um an dieser Stelle realistisch zu bleiben.

Doch kaum sind wir zurück aus dem Weihnachtsurlaub, holt uns das „normale“ Leben wieder ein. Anrufe und E-Mails verfolgen uns im Minutentakt, unser Handy vibriert ständig, unser Konsumverhalten rund um Spiegel Online und Facebook nähert sich wieder dem alten Maß, wir sind „always on“ und die Entspannung ist schnell wieder verflogen.

Doch es gibt Abhilfe. Über eine Website - wie denn sonst?

Einfach mal auf www.alleinr.de klicken. Hilft nicht so gut wie die Lektüre eines guten Romans. Aber hilft. Frohes Neues Jahr! 

menuseperator

Jedes Jahr ungefähr ab Mitte November geht es los: Viele Analysten-Häuser, aber auch zunehmend IT-Unternehmen, äußern sich zu den Technologie-Trends des kommenden Jahres. 

Dass Marktforschungsunternehmen wie Gartner oder Forrester das Jahresende nutzen, um einen Ausblick auf kommende Technologien zu geben, ist verständlich. Das ist schließlich Teil ihres Geschäftsmodells. Also aufzuzeigen, welche Technologien das Potenzial besitzen, einen signifikanten Einfluss auf Unternehmen zu haben. Dass sich dabei viele Hype-Themen aus 2013, wie beispielsweise Mobility, Cloud, Big Data oder das Internet der Dinge, in unterschiedlichen Ausprägungen in 2014 wiederfinden, verwundert auch nicht weiter.

Was meiner Ansicht nach zunimmt – aber womöglich bilde ich mir das auch ein – sind Prognosen von IT-Unternehmen. Generell spricht natürlich nichts dagegen, sich als Markt-Experte zu positionieren. Ganz im Gegenteil sogar, wir motivieren unsere Kunden von Fall zu Fall auch, dies zu tun. Was dabei allerdings wichtig ist, ist eine gewisse Neutralität zu wahren und eine echte Markteinschätzung abzugeben, die ­– und das ist der springende Punkt – über die Betonung des eigenen Geschäftsfeldes hinausgeht. So ist es meiner Ansicht nach wenig glaubhaft, wenn für einen Anbieter von Netzwerk-Lösungen einzig die WAN-Optimierung die Basis für Cloud Services im nächsten Jahr bildet oder, an anderer Stelle, ein Anbieter von Lösungen für Mobile Device Management den Top-Trend 2014 "Mobile Device Diversity and Management" von Gartner unterstreicht.

Somit bleibt im Grunde alles beim Alten: Die Marktforscher walten ihres Amtes mit wenig überraschend Neuem und die IT-Unternehmen reiten auf der Prognose-Welle mit. Letztere sollten dabei aber im Sinne der Glaubwürdigkeit auf echte Markteinschätzungen Wert legen.

menuseperator

Immer wieder werden wir in Kunden-Meetings mit dem Thema Social Media konfrontiert und gefragt, welchen Nutzen diese Plattformen gerade für B2B-Unternehmen haben. Es gibt viele unterschiedliche Meinungen zu diesem Thema. Während Facebook und Twitter umstritten sind, erfreut sich der Corporate Blog einer großen Beliebtheit. Es klingt auch ganz einfach – jeder bloggt nach seinem Gusto und alle sind glücklich. Doch wer mit seinem Blog Erfolg haben will, sollte einige wichtige Punkte beherzigen.

Zunächst einmal: Wen will ich adressieren? Gibt es überhaupt Themen für einen Blog? Wo bekomme ich sie her? Will ich tatsächlich die Faktenwelt verlassen und Einblicke (wenn auch gefilterte) in mein Unternehmen gewähren oder meine persönlichen Meinungen kundtun? Wenn dem so ist: Kann ich ausreichend Manpower bereitstellen, um den Blog kontinuierlich zu füllen? Wer darf, wer darf sich nicht beteiligen? Wie plane ich am besten den Inhalt? Wie soll sich der Inhalt von reinem PR-Inhalt unterscheiden? Wer sorgt für die interne Textfreigabe, und wie schnell? Ist das Top-Management damit einverstanden? Will oder soll es sich gar beteiligen?

Ein guter Anfang ist, herauszufinden, wer überhaupt Input für einen Blog liefern kann, und wie zuverlässig: Produktentwicklung, Berater, Vertrieb, Marketing, PR? Dann sollte am besten ein Inhaltskalender aufgestellt und gepflegt sowie ein Jour Fixe mit allen Beteiligten festgelegt werden, um die Inhalte und deren Umsetzung zu besprechen. Nach der Erstellung sollte der Blog nach dem Vier-Augen-Prinzip von einem kompetenten Kollegen gegengelesen und erst anschließend gepostet werden.

Wer schon einmal über ein spezielles Thema geschrieben hat, weiß, wie aufwendig das sein kann. Merke: Auch vermeintlich lockere Blog-Beiträge sollten gut recherchiert sein, um Kompetenz zu zeigen, aber auch, um sich von anderen Blogs abzuheben. Qualitative Beiträge werden bei der Leserschaft immer geschätzt. Mehr zum Thema: „Bitte keine Werbetexte“

Schließlich möchte ich noch die "integrierte Kommunikation" heranziehen: Ein Blog sollte nicht losgelöst von den anderen Kommunikationstools gepflegt werden, sondern wird idealerweise mit ihnen abgestimmt. Und wenn wir schon von B2B-Blogs reden: Der Impact ist vielleicht nicht immer so aufregend, wie man sich das vorstellt, denn Social Media lässt IT-Verantwortliche, die über die Anschaffungen von Systemen entscheiden, in der Regel eher kalt.

menuseperator

Heute morgen hat mich bei Michael Krokers täglichem Blick in die IT-Welt ein Absatz irritiert:

… ist der Microsoft-Anteil aller ans Internet angeschlossenen Geräte zwischen 2009 und 2013 von gut 90 Prozent auf nunmehr unter 25 Prozent abgesackt – eine dramatisch gewachsene Irrelevanz von Microsoft, zumindest in der mobilen Welt der vernetzten Geräte.

In Bildern sieht es sogar noch dramatischer aus:

 

Eine "dramatische" Entwicklung, in der Tat. Aber das eigentliche Drama, das sich hier vor unser aller Augen vollzieht, ist doch, wie wenig Aufmerksamkeit dieser Absturz findet. Sicher, der eine oder andere IT-Blog nimmt es wahr, Fachmedien schon nur noch am Rande. Aber sonst? Hätte man so eine Entwicklung noch vor fünf Jahren halbwegs zuverlässig prognostizieren können, was hätte das für einen Bohey gegeben: Schlagzeilen, Titelstories, Wirtschaftspresse, FAZ, Spiegel, Schwarzwälder Bote, Autobild, Frau im Schatten. Und Anchorman Tom Buhrow hätte in einen ARD-Brennpunkt die Rückkehr von Bill Gates gefordert.

Mittlerweile reicht also ein Absatz in "Kroker's Look@ IT". Und der Hinweis des Kollegen, er hätte darüber auch "schon Mitte des Jahres" geschrieben, macht es nur noch schlimmer.

Sicher, wir alle haben Windows, Word und Excel in allen ihren Versionen so manches Mal verflucht, wir haben uns die Haare gerauft und in die Tischkante gebissen. Trotzdem: was da jetzt abläuft, diese vorsätzliche Missachtung, das geht denn doch zu weit. Es ist doch oft auch schön gewesen.

Zum Beispiel erst gestern wieder mal in der stationären Welt der vernetzten Geräte:

menuseperator

Wikipedia verträgt sich mit PR-Arbeit wie Feuer mit Wasser. Können Unternehmen trotzdem hier aktiv werden? Ja, wenn sie sich auf die Spielregeln einlassen - die Spielregeln der Wikipedia.

Wir gehen in unserem neuen Video nicht nur auf die aktuelle Diskussion rund um PR in der Wikipedia ein, sondern geben auch erste Tipps für Wikipedia-Neulinge in Unternehmen.

Wer sich ausführlicher über das Thema informieren will, kann sich unser Whitepaper „Wikipedia in der Unternehmenskommunikation" ab sofort hier herunterladen. In diesem geben wir nicht nur eine Anleitung für einen erfolgreichen Einstieg in Wikipedia, sondern auch ausführliche Informationen zum Umgang mit Wikipedia in der Unternehmenskommunikation - über das, was man tun kann und besser lassen sollte.

menuseperator

Fast jeder unserer Beratungskunden befasst sich aus unterschiedlichem Blickwinkel mit Big Data: den riesigen Datenmengen, der beeindruckenden Vielfalt strukturierter und semistrukturierter Daten, der oft rasanten Entstehung und Veränderung dieser Daten und schließlich – und da wird es spannend – mit der Analyse der Datenflut. Letztendlich geht es um handlungsrelevante Erkenntnisse, die noch immer von Menschen umgesetzt werden. Mehrmals pro Woche finden sich in meinem E-Mail-Eingang Tipps und Links zu Hintergrundinfos. Beim Stöbern bin ich dann auf Seiten gelandet wie „Why the big data systems of tomorrow will mirror the human brain of today“. Der BrightContext-CEO John Funge erläutert hier, warum Big Data noch am Anfang seiner Entwicklung steht, aber in Zukunft nach dem Vorbild des menschlichen Gehirns funktionieren würde. BrightContext aus Arlington im US-Bundesstaat Virginia ist auf Real-Time Big Data Stream Processing & Analytics spezialisiert. In den Worten von Funge: „Tomorrow, our smartest systems will instantly and masterfully oversee, optimize, manage and adapt processes that are as critical as they are complex, across a broad spectrum of industries, having taken their cues from the most ready example of a natural supercomputer we have: the human brain.“

Das erinnert mich dann sehr schnell an Ray Kurzweil, der vor einiger Zeit schon ähnlich argumentierte: IBMs Superrechner Watson steht für ihn am Anfang einer Entwicklung. Schon bald würden ähnliche Systeme so rasant rechnen können, dass sie die menschliche Intelligenz erreichen und sie schließlich übertreffen werden. Im Jahr 2045, so Kurzweil, werden die Computer klüger sein als die Menschen und bessere Entscheidungen treffen; nachzuhören etwa in diesem Video.

Alltagsbeobachtungen liefern Indizien dafür, dass das menschliche Gehirn keineswegs wie ein Supercomputer funktioniert. Zudem gibt es Grund zur Annahme, dass Computer nicht so wie Menschen denken können. Wir sollten aufhören, uns darauf zu konzentrieren, Computer – und damit auch Big Data – als Ersatz für das menschliche Gehirn anzusehen, sondern als nützliche Ergänzung. Es geht nicht um Artificial Intelligence sondern um Augmented Intelligence.

Im Übrigen: Je umfangreicher und komplexer der Regelsatz, den ein Big-Data-System nahezu mechanistisch anwenden und daraus Entscheidungen ableiten kann, als desto erfolgreicher gilt es. Für Menschen gilt manchmal genau das Umgekehrte: Sie sind am besten, wenn sie zumindest einige Regeln missachten. Das Ganze nennt sich dann Innovation.

menuseperator

Neues aus dem Land der unbegrenzten Möglichkeiten: Wie die Süddeutsche berichtet, hat die amerikanische Firma Backyard Brains ein Implantat entwickelt, mit dem sich Kakerlaken per iPhone fernsteuern lassen. Wischt man auf dem Smartphone mit dem Finger, wird der Schabe ein Stromstoß in ihren Fühler versetzt. Das Nervensystem der Kakerlake hält dies für ein Hindernis und das Tier macht eine Ausweichbewegung. Dieser „erste kommerziell erhältliche Cyborg“, so der Hersteller, ist für rund 100 Euro zu haben. Eine Schabe ist allerdings nicht dabei. Die muss man sich schon selber fangen – oder im Zwölferpack dazu bestellen.

Die Tiere dürften über das Produkt aber weniger erfreut sein als der Hersteller, denn für das Funktionieren des Implantats ist ein mittelschwerer Eingriff nötig. Man muss die Kakerlaken zunächst mit Eiswasser betäuben und ihren Rückenpanzer dann mit Schleifpapier bearbeiten, damit die Steuereinheit auch schön kleben bleibt. Ach ja, und um die Elektroden hineinzustecken, sind dann noch die Fühler entzwei zu schneiden.

Entsprechend dick ist der Hals der Tierschützer, die von „Folter und Verstümmelung“ reden. Backyard Brains versteht die ganze Aufregung aber nicht. Man habe das Implantat entwickelt, um Kinder möglichst früh für Neurowissenschaften zu begeistern. Doch die Kleinen wollen diesen Enthusiasmus nicht so recht teilen. Als der Firmengründer auf einer Konferenz einer Kakerlake live ein Bein amputierte, war bei den Kindern im Publikum jedenfalls keine Begeisterung festzustellen – sondern blankes Entsetzen. So Internet-Computerspiel-und-Gewaltvideo-abgehärtet wie immer gemutmaßt scheinen sie also doch nicht zu sein.

 

menuseperator

Im Zeitalter von Social Media und Internet bieten Videos in der PR neben Blogs und Posts über die klassischen Formate wie Fachartikel, Kommentare und schriftliche Interviews hinaus eine erfrischende Kommunikationsform, um verschiedene Zielgruppen zu adressieren.

Als PR-Agentur mit ITK-Fokus begegnen uns häufig neue Produkte und Lösungen unserer Kunden, die technisch sehr komplex sind. Gerade hier eröffnen Videos neue Möglichkeiten, um Sachverhalte und Fakten anschaulich zu vermitteln sowie technischen Themen eine persönliche Note zu geben.

Videos zeigen Expertise, steigern Vertrauen und Glaubwürdigkeit und stärken das Image des Unternehmens. Im Fokus sollte hierbei stets die authentische, informative und unterhaltsame Darstellung von Personen, Produkten, Services und Stories rund um die Marke und das Unternehmen stehen.

Wir haben einmal die wichtigsten Videoformate in der PR zusammengestellt:

Interview
Das Experteninterview bietet einen der besten Wege, Informationen anschaulich und, falls gewünscht, auch unterlegt mit Beispielen zu vermitteln. Hierbei darf es gerne kurz und knackig sein, denn bereits bei einer Länge von wenigen Minuten kann einiges an den Mann/die Frau gebracht werden.

Diskussionsrunde
Natürlich kann der Austausch auch in einer Runde mit mehreren Experten, zum Beispiel bei einer Podiumsdiskussion, stattfinden. Je nach Position und Sichtweise können die Teilnehmer verschiedene Aspekte und Meinungen einbringen.

Event-/Messe-Rundgang
Impressionen, eingefangen vor Ort, gespickt mit Stimmen von Besuchern, Teilnehmern und Experten, bieten Interessierten und Kunden, die selbst nicht dabei sein konnten, einen lebhaften und informativen Eindruck des Geschehens.

Street Surveys           
Durch Umfragen auf der Straße, zum Beispiel zu IT-Trends und aktuellen Diskussionen der Branche, wird ein Meinungsbild oder auch Wissensstand abgefragt. Je nach Ausrichtung können Statements einer breit gestreuten Zufallsgruppe eingefangen oder es kann gezielt auf bestimmte Zielgruppen zugegangen werden, zum Beispiel auf IT-Experten von morgen an Universitäten oder auf Fachpublikum auf Messen/Kongressen.

Video Case Studies
Kundenreferenzen sind vor allem im B2B-Bereich eine glaubwürdige Informationsquelle für potenzielle Neukunden. Im Video lassen sich erfolgreich durchgeführte Projekte und Fallbeispiele besonders anschaulich skizzieren und die bebilderte Empfehlung von glücklichen Dritten unterstreicht die Glaubwürdigkeit.

Produktvorstellungen
Gibt ein Unternehmen ein neues Produkt oder eine neue Lösung heraus, so können diese Technologien und komplexe Zusammenhänge mittels Video in wenigen Minuten anschaulich erläutert werden. Hilfreich kann hier auch der Einsatz von Grafiken oder Animationen sein.

Live-Stream
Seien es Fachvorträge, Diskussionen oder Momentaufnahmen aus Messehallen – per Live-Stream können Interessierte rund um den Globus dabei sein und einen persönlichen Eindruck in Echtzeit gewinnen.

Egal, welches Format gewählt wird, immer gilt: Ausschlaggebend für den späteren Erfolg ist qualitativ hochwertiger Content und das entsprechende Know-how – vor und hinter der Kamera. Dazu gehört auch eine gute Beleuchtung und eine angemessene Tonqualität. Der eine oder andere Versprecher ist nur menschlich und kann den Sympathie-Faktor sogar erhöhen – wichtig ist aber, dass der Gefilmte sich grundsätzlich vor der Kamera wohlfühlt und keine Fluchttendenzen entwickelt.

Sind die genannten Voraussetzungen erfüllt, so findet die Botschaft auch ihre Zielgruppe – oder diese findet sie. Denn ähnlich vielfältig wie die Formate sind auch die Einsatzbereiche und Kanäle zur Verbreitung eines Videos: In den meisten Fällen bietet sich die Verbreitung über YouTube, Facebook, Twitter und Co. ebenso an wie die über die eigene Unternehmenswebsite und Micro-Sites. Zudem lassen sich Videos auf Messen und Events einsetzen oder in elektronische Newsletter wie auch in das Unternehmens-TV einbinden.

Neugierig geworden? Anschauliche und informative Beispiele finden Sie in unserer Rubrik „Videos“.

menuseperator

Seiten