Blog

Es wird ernst, anders kann man es kaum sagen. Was lange wie eine Zukunftsvision erschien, findet mehr und mehr Einsatz in der Praxis: das selbstfahrende, nach offizieller Terminologie „autonome“ Auto steht quasi schon vor der Tür. Also nicht bei mir, falls Sie das jetzt meinen, sondern eher vor unser aller Haustür, als Transportmittel der Zukunft. Vorbei das lange Zeit glorifizierte Gefühl von Freiheit und Unabhängigkeit hinter dem Steuer, jetzt ist der Fahrzeuglenker, dank künstlicher Intelligenz (KI) und Deep Learning, eine Mischung aus Rechenzentrum auf Rädern und HAL 9000, dem Supercomputer aus „2001: Odyssee im Weltraum“. Es wird nicht mehr lange dauern, dann gehören sie ganz selbstverständlich zum Straßenbild. Die Weichen dafür sind gestellt, wie die im Moment immer zahlreicheren Berichte über die Pläne von Herstellern wie Google, Praxis-Tests in Berlin und London  oder die Absicht von Uber, eine Flotte autonomer Fahrzeuge aufzubauen, deutlich machen.

Die Technik ist also einsatzbereit, doch nach und nach rücken andere Aspekte ins Blickfeld, die der Einsatz im Straßenverkehr mit sich bringt: Welches Gefahrenpotenzial bergen Cyberattacken auf die Fahrzeuge? Wie lassen sich Daten des Fahrzeugs oder der Insassen schützen? Wie muss eine den neuen Gegebenheiten angepasste Gesetzgebung aussehen? Welche Auswirkungen haben autonome Fahrzeuge auf die künftige Verkehrsplanung? Und was ist überhaupt, wenn ein selbstfahrendes Auto einen Unfall verursacht? Auch wenn menschliches Versagen in dem Fall ja offensichtlich auszuschließen ist, wer muss zahlen? Vielleicht am Ende der Softwareentwickler? Wie komplex die Steuerung eines Fahrzeuges in der Realität ist, zeigt auch die Tatsache, dass Testfahrzeuge immer mal wieder in Unfälle verwickelt sind, wie jüngst zu beobachten.

Noch komplizierter wird es, wenn ein autonomes Fahrzeug selbst entscheiden muss, welches von zwei denkbaren Übeln denn bitteschön das kleinere ist. Wen gilt es zu schützen, Insassen oder eher Fußgänger? Und nach welchen Kriterien wird bewertet? Diese Entscheidung einer Maschine zu überlassen, ist sicher nicht nur für mich ein mulmiger Gedanke.

Wie groß das moralische Dilemma in so einer Situation tatsächlich sein kann, zeigt die Moral Machine, ein Experiment des MIT (Massachusetts Institute of Technology), bei dem ein führerloses Fahrzeug entweder auf Fußgänger oder eine Betonwand zusteuert. Als außenstehender Beobachter soll man sich für das kleinere Übel entscheiden: Wen opfert man eher, zwei Mitfahrer oder drei Fußgänger? Für Katzenliebhaber wird es noch haariger, soviel sei verraten.

Noch ist unklar, wer darüber entscheidet, wie ein selbstfahrendes Auto in einer bestimmten Situation zu reagieren hat. Bleibt es den Herstellern überlassen, ist anzunehmen, dass sie vor allem die Fahrzeuginsassen schützen wollen, was für andere Verkehrsteilnehmer schlecht ausgehen könnte.

Damit es uns am Ende nicht so geht wie den Fußballern des BVB im Spot eines deutschen Autoherstellers, sollte die Überlegung, wer bei autonomen Fahrzeugen nicht nur steuert sondern auch die Verantwortung trägt, abgeschlossen sein, bevor der praktische Einsatz beginnt.  

Übrigens, heute (am 22. November) ist „Mach-eine-Spritztour-Tag“ (der amerikanische Go For A Ride Day), wenn das kein Omen ist – aber halten Sie das Steuer gut fest!

menuseperator

Da sag noch einmal einer, dass durch den zunehmenden IT-Einsatz in allen Bereichen nur Arbeitsplätze wegrationalisiert werden – dass IT auch aktiv Arbeitsplätze – was sag ich, ganz neue Arbeitsfelder – schaffen kann, zeigt sich gerade mal wieder:

Kaum hat sich das Grundverständnis darüber, was die Aufgaben eines CISO (also eines Chief Information Security Officers) im Unternehmen alles umfasst einem ziemlich allgemeinen Konsens genähert, zeichnet sich ein neues Berufsfeld ab: der ISO hat nun Saison, wie eben auf dem IT-Gipfel der Bundesregierung ausgerufen. Was das ist, fragen Sie sich? Klingt nach dem allseits bekannten Industrie-Standard der Internationalen Organisation für Normung, was wohl nicht so ganz zufällig ist. Doch in diesem Fall geht es um den Industrial Security Officer, ein neuer Aufgabebereich im Unternehmen, der angesichts der wachsenden Bedeutung von IoT und Industrie 4.0 quasi unumgänglich ist. Neue Technologien erfordern nun mal mehr als die rein technische Umsetzung, dazu gehört ebenso eine angepasste Gesetzgebung und umfangreiche Sicherheitsmaßnahmen innerhalb einer Organisation. Durch den ISO – also jetzt nicht den Industrie-Standard, sondern den „Sicherheitsbeauftragten“, was aber längst nicht so dynamisch und IT-affin klingt – soll schlicht vermieden werden, dass diese Position mit zentraler Bedeutung von mehreren Mitarbeitern mal eben so nebenbei mit erledigt wird – viele Köche verderben ja bekanntlich den Brei. Angesichts breiter Gesetzeslücken und zahlreicher Sicherheitsmängel bei IoT-Anwendungen ist schließlich noch viel zu tun. Ob mit dem neuen Namen dann auch gleich deren Lösung in Aussicht steht, bleibt abzuwarten. Für Gesprächsstoff sorgt das neue Berufsfeld allemal, und das sicher nicht nur bei der Begriffsklärung.

Dass Industrie 4.0 kein Gedankenspiel mehr ist, zeigt übrigens ganz eindrucksvoll eine Landkarte mit Praxisbeispielen, die Smart-Factory-Anwendungen ebenso umfasst wie Service- und Logistik-Lösungen, Predictive Maintenance bei Industrie-Anlagen oder den Einsatz bei der Vernetzung von Maschinen, Feldern und Fahrern in der Landwirtschaft.

menuseperator

Haben Sie schon mal darüber nachgedacht, was bei Ihnen daheim los ist, wenn Sie nicht da sind? Dabei denke ich nicht an Ihre Katze oder den Kanarienvogel. Vielmehr sollte man wohl für die Zukunft vielleicht besser ein Auge darauf haben, was die Hausgeräte so alles anstellen, wenn wir mal nicht hinsehen.

Neben ihrer Bestimmung als Kühlgerät, Waschmaschine, Heizung, Fernseher & Co. hat so manches technische Gerät das Potenzial ein Eigenleben zu entwickeln, das uns schnell die Sorgenfalten auf die Stirn treiben könnte. Vernetzung ist das Stichwort, als Buzzword gerne auch Internet of Things (IoT) genannt, das viele Geräte schon heute miteinander verbindet und ganze neue Einsatzfelder eröffnet. So zum Beispiel wenn der Kühlschrank mit dem Smartphone oder die Heizung mit dem WLAN-Router kommuniziert. Dabei ist der Haushalt nur das Versuchsterrain im Kleinen. Ganze Industrien sind schon oder noch dabei, auf den Zug aufzuspringen, der mit uns ab in die vernetzte Zukunft rauscht.

Gerade komplexe Industrieanwendungen oder Logistik-Prozesse profitieren schon vielfach von IoT-Anwendungen. Smart Cities, Smart Homes oder Smart Cars – alles scheint möglich. Und wo IoT noch nicht im Einsatz ist, wird eilends überlegt, wie sich der neue Hype am besten nutzen lässt.

Ganz klar, das Konzept ist so einfach wie verlockend: Mit Hilfe von Sensoren sammeln die Geräte Daten, die vernetzte Prozesse über das Internet steuern und somit unser aller Leben wahlweise bequemer, einfacher, sicherer oder kostengünstiger gestalten sollen. Beispiele sind etwa die Steuerung von Licht und Heizung in Gebäuden, die Analyse von Wetter und Verkehrslage für die nächste Autofahrt oder die Aufzeichnung von Fitness- und Gesundheitsdaten in Wearables, mit denen wir aufbrechen ins neue Fitness-Glück.

Der Markt ist riesig und wächst beständig. Laut Gartner werden Unternehmen im Jahr 2020 mit dem Internet of Things über 300 Milliarden Euro erwirtschaften. Die Analysten rechnen bis dahin mit 25 Milliarden vernetzter Dinge, von Maschinen über Geräte bis zu Fahrzeugen. Smartphones, Tablets und Computer sind dabei noch nicht mit eingerechnet.

Gleichzeitig steigt aber die Gefahr für Cyber-Angriffe und Hacker-Attacken in gleichem Maße. Unternehmen sind daher gut beraten, bei der Entwicklung von IoT-Anwendungen Datenschutz und Datensicherheit fest im Auge zu behalten, im eigenen Interesse, aber auch in dem ihrer Kunden, die mit dem Thema zunächst überfordert sein dürften. Beispiele für arglosen Umgang finden sich zahlreich und reichen bis hin zum spionierenden Plüschbären. Mit solchen Vorfällen ist das Vertrauen schnell dahin. Die Gefahr des Ausspähens droht übrigens nicht nur aus der kriminellen Ecke, wie man meinen könnte. Auch Geheimdiensten passen die über das Internet verbundenen Geräte perfekt in den Plan.

Erste Schritte hin zu einem durchgängigen Authentifizierungs- und Autorisierungskonzept und damit mehr Sicherheit und Standardisierung sind erkennbar, doch wird die Regelung und Vereinheitlichung so vieler komplexer Verbindungen noch eine Weile brauchen. Bis dahin heißt es, Augen auf und immer ein prüfender Blick auf den Kühlschrank.

menuseperator

Hach die IT, so viele Hypes wie Flops und doch muss ich heute mal ein Hoch ausbringen. Was hat sie uns doch – speziell in den letzten 25 Jahren – an Neuerungen gebracht, die einer Revolution gleich aus unser aller Leben nicht mehr wegzudenken sind. Kaum zu glauben, was ein Vierteljahrhundert später für uns alle ganz selbstverständlich geworden ist.

Während wir heute schnell mal die aktuellen Mails und Newsletter auf dem Smartphone oder Tablet checken, Daten und Bilder auf externen Festplatten oder in der Cloud speichern, Filme streamen, Buchungen und Bankgeschäfte online erledigen und unsere Freunde auf Social-Media-Plattformen treffen, war die Welt 1990 noch analog – aber wie ...

Zu Lesen gab es Zeitungen und Bücher ­– natürlich ausschließlich in gedruckter Form – für das Sammeln von Fotos Alben, zur Bank oder ins Reisebüro ging man persönlich und seine Freunde traf man abends in geselliger Runde, was ja auch heute noch seinen unbestrittenen Wert hat.

Nehmen wir als Beispiel nur mal die unbestritten segensreiche Entwicklung des Mobiltelefons. Ich weiß ja nicht, wie Ihr erstes Mobiltelefon aussah, aber vielleicht waren Sie einer der Early Adopter und dementsprechend mit einem der Hörknochen der ersten Stunde bewehrt?

Die nicht mehr ganz Jungen unter uns werden sich erinnern, dass man in unserer Jugend eine Telefonzelle suchen musste, wenn man von unterwegs kommunizieren wollte. Die war dann wahlweise besetzt oder außer Funktion, weil demoliert. Ansonsten blieb nur warten. Darum war es auch immer wichtig, Verabredungen verbindlich zu treffen, und ein Gebot der Höflichkeit, dass man pünktlich ist. Eben darum, um das Warten einzugrenzen. Die übliche Frage bei einem Anruf war damals auch noch „Wie geht’s dir?“ und nicht „Wo bist du gerade?“. Lustig, oder? Wie, Sie können sich das nicht vorstellen? Dann sind Sie vermutlich so um die 25 und sollten mal ihre Eltern fragen.

Wenn ich es mir recht überlege, war manches gar nicht so schlecht. Darum sehen Sie es mir nach, wenn mir – trotz aller Begeisterung für die IT – hin und wieder ein wenig analog zumute ist.

menuseperator

Sie heißen JUQUEEN, SuperMUC oder HORNET und haben mächtig was auf dem Kasten. Gemeint sind nicht etwa Actionhelden oder Rapper, sondern Höchstleistungsrechner vor allem für wissenschaftliche, aber auch für kommerzielle Anwendungen, wie sie im Forschungszentrum Jülich, dem Leibniz-Rechenzentrum in Garching bei München oder dem Höchstleistungsrechenzentrum Stuttgart im Einsatz sind.

Wenn sich dieser Tage wieder alles um die Boliden unter den Rechnern dreht, dann ist ISC. Die International Supercomputing Conference 2015, die noch bis zum 16. Juli in Frankfurt stattfindet, versammelt Forscher, Hersteller und Anwender im Feld der Supercomputer und gibt Einblicke in die neuesten Entwicklungen und aktuelle Forschungen der IT-Labs.

Doch nicht alleine die Forschung profitiert von der Leistungsfähigkeit der High Performance Cluster, auch für die Industrie werden Anwendungen aus dem HPC-Bereich immer wichtiger. Wenn es gilt große Datenmengen schnell zu bearbeiten und zu analysieren, setzen inzwischen auch viele Unternehmen High Performance Computing ein. Sei es im Finanzsektor, bei der Wetterprognose oder wie zuletzt zu lesen war beim Flugzeugturbinenhersteller Rolls Royce, der on demand auf HPC-Kapazitäten zurückgreift. Kein Wunder also, dass die Hersteller bemüht sind, Leistungsfähigkeit von Prozessoren, Grafikbeschleunigern oder Anwendungssoftware immer weiter zu optimieren. Denn die Grenzen sind längst nicht erreicht. Bis 2018 rechnen Experten bereits mit einer Rechnerleistung von 1 exaFLOPS (1 EFLOPS entspricht 1018 FLOPS oder 1.000 PFLOPS). Man darf also gespannt sein, welche Anwendungen damit in Zukunft möglich werden.

menuseperator

Wie wir schon aus den vorangegangenen Beiträgen zur Zukunft der Arbeitswelt erfahren haben, ist das Berufsleben heute vielschichtig – für Arbeitgeber wie auch Arbeitnehmer. Die moderne Technik bietet eine Vielzahl von Möglichkeiten, angefangen bei der Auswahl der bevorzugten Geräte bis hin zum flexiblen Remote-Arbeitsplatz von zuhause oder anderswo. Es liegt an jedem Einzelnen, ob und welche Variante er bevorzugt und wie weit das Unternehmen seines Vertrauens ihn dabei unterstützt.

Doch was bringt die Zukunft? Was erwarten Arbeitnehmer von den technologischen Entwicklungen, und welchen Einfluss sehen sie auf ihren Arbeitsplatz oder ihre Arbeitsweise?

Auch mit diesen Fragen hat sich die Evolving-Workforce-Studie von Dell und Intel befasst und liefert uns einige interessante Ausblicke.

Mal vorweg, insgesamt sind die Mitarbeiter hinsichtlich der Zukunft des Technologieeinsatzes am Arbeitsplatz optimistisch. Sie glauben, dass die technische Weiterentwicklung Vorteile und neue Möglichkeiten für die Beschäftigten mit sich bringen wird, aber nicht, dass sich die Art und Weise, wie wir arbeiten, grundlegend verändern wird.

Eine deutliche Mehrheit der Arbeitnehmer ist der Überzeugung, dass in Zukunft die Spracherkennung die Tastatur verdrängen wird (92% weltweit; 91% in Deutschland) und dass Tablets die Notebooks vollständig ersetzen werden (87% bzw. 84%). Ebenso eindeutig ist es für die meisten, dass wir alle künftig unsere Computer mit Gesten steuern werden (87% bzw. 91%) und wir dafür keine Tastaturen und Mäuse mehr benötigen. Stehen wir also künftig alle im Büro und wedeln wild mit den Armen, um unsere Computer zu bedienen? Minority Report lässt grüßen.

84% glauben sogar an das selbstfahrende Auto, das sie künftig zur Arbeit chauffiert, und 52% lassen sich im besten Fall gleich durch ein Hologramm am Arbeitsplatz ersetzen – wenn da der Wunsch mal nicht Vater des Gedanken war ...

Auch ein wenig Technologie-Pessimismus wird deutlich: 29% der deutschen Arbeitnehmer meinen, dass die zunehmende Technisierung den Menschen unwichtig macht (23% weltweit). Auch hegen 19% (15% weltweit) Sorgen, dass die zunehmende Verbreitung von Big-Data-Lösungen ihre persönliche Freiheit einschränkt. Und gar 32% der deutschen Befragten sind der Ansicht, dass Technologieunternehmen verantwortungslos mit ihren Daten umgehen. Damit ist der Pessimismus bei den deutschen Studienteilnehmern deutlich ausgeprägter als bei den weltweit befragten – dort sind es nur 20%.

Dennoch sind zwei Drittel der deutschen Arbeitnehmer der Ansicht, dass es Dinge gibt, die nach wie vor besser von Menschen erledigt werden. Und drei von vier Befragten sind sich sicher, dass die Automatisierung an einem bestimmten Punkt ihre Grenzen erreicht und der Mensch auf absehbare Zeit unersetzlich bleiben wird.

Was sich auch immer an den technologischen Rahmenbedingungen mittelfristig verändern wird, die wichtigsten Parameter von heute gelten unverändert: Dazu gehört eine auf die jeweiligen Aufgaben zugeschnittene Infrastruktur, die passende Technologien und Geräte bietet, ein einfacher aber sicherer Zugriff auf Unternehmensdaten und -Anwendungen von überall und zu jeder Zeit, sowie die Flexibilität, dass Mitarbeiter die für sie geeignete Arbeitsumgebung gestalten können.

Unter diesen Voraussetzungen erfüllen sich die Erwartungen aller an eine Work-Life-Balance ganz wie von selbst.

menuseperator

Diese Frage auf witzige Weise zu beantworten, gelingt Dell in seiner aktuellen Marketing-Kampagne und den dazugehörigen Video-Spots auf der Blog-Plattform Tumblr, die den „verkannten Helden der IT“ gewidmet ist, die im täglichen Kampf mit der Materie und dem menschlichen Faktor angetreten sind, um größere Katastrophen oder gar den kompletten Systemausfall zu verhindern. Der Kampagnen-Name „Tough Enough“ und die gesammelten Erlebnisse User-geplagter Admins machen denn auch dem letzten Anwender klar, dass er Gefahr läuft, als DAU („Dümmster anzunehmender User“) in die Annalen der IT einzugehen. Eines zeigt die Tumblr-Seite jedenfalls deutlich: die DAUs sind unter uns.

Egal, ob es einem im Stillen die Schamesröte ins Gesicht treibt oder ein Schmunzeln über eigene Erlebnisse – hier steckt viel Wahrheit drin.

Wer also schon immer mal wissen wollte, was in anderen IT-Abteilungen so los ist oder seine eigenen Erlebnisse berichten will: das ist Ihre Chance!

Denn: „Das Leben in der IT ist schon hart genug. Take IT easy.“

Neulich in der IT: Folge 3 – Helden der IT

menuseperator

Das Sammeln von Daten per se hat ja in jüngerer Zeit einen eher schlechten Ruf, auch wenn deren Analyse und Strukturierung heute zu den geschäftskritischen Aufgaben eines jeden Unternehmens zählen. Datenschutzpannen und die Affäre Snowden demonstrieren eindrucksvoll, welches Schindluder sich mit unrechtmäßig erschlichenen Daten treiben lässt.

Dennoch sei heute mal die Seite herausgestellt, die Forschung und Wissen voranbringt und – im besten Fall – sogar Leben retten kann.

Die Anwendungsfelder für komplexe Datenanalysen und -berechnungen sind so vielfältig wie die wissenschaftlichen Disziplinen, allen voran die Naturwissenschaften. Sei es die Auswertung meteorologischer Daten zur Wettervorhersage und Sturmwarnung, die Berechnung astronomischer Daten für die Satelliten-Steuerung oder Mars-Rover-Mission oder die Computersimulation molekularer Vorgänge in der Physik. Die Liste wissenschaftlicher Einsatzfelder lässt sich fast beliebig erweitern. Ein Beispiel für den Einsatz von High Performance Computing in der Medizin ist die Genom-Analyse, wie sie in Forschungszentren, an Universitäten oder in der Industrie betrieben wird.

So läuft zum Beispiel am Translational Genomics Research Institute (TGen) in Phoenix, Arizona, ein Genom-Analyse-Projekt mit Hilfe der Dell Genomic Data Analysis Platform. Das TGen befasst sich mit biomedizinischen Forschungen und klinischen Studien zu Neuroblastomen, einer besonders aggressiven Krebserkrankung bei Kindern, bei der Zeit ein entscheidendes Kriterium ist. Dank der hochperformanten HPC-Lösung, die Terabyte an Daten verarbeiten kann, lassen sich die Erbgutsequenzen schneller analysieren, was die Chancen für eine wirksame Therapie deutlich erhöht.

Was mit Datenauswertung beginnt, macht eben manchmal auch den Fortschritt erst möglich – egal ob im Weltraum oder vor unserer Haustür.

Wer sich für weitere spannende Anwendungsbeispiele des High-Performance-Computing interessiert, hat demnächst dazu Gelegenheit, denn ab dem 23. Juni 2014 ist es wieder soweit: Die ISC 2014 (International Supercomputing Conference) startet in Leipzig. 

menuseperator

Als die CeBIT im vergangenen Jahr nach „Shareconomy“ als Top-Thema für die CeBIT 2014 „Datability“ angekündigt hat, schien es erst mal, als wäre ein Trend geboren. Zumindest was kreative Wortschöpfungen anbelangt.

Denn auch das diesjährige Motto, das sich aus dem Markttrend Big Data sowie den Möglichkeiten seiner nachhaltigen und verantwortungsvollen Nutzung (Englisch: ability, sustainability, responsibility) zusammensetzt, will sinnstiftend sein und meint: „Die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen.“ So definieren es die Macher der CeBIT. Meint übersetzt, Big Data erleichtert das Leben – wenn man sinnvoll damit umgeht.

Die Peta- und Exabyte der heute in Unternehmen generierten Daten wollen, ja müssen schließlich strukturiert werden um daraus verwertbare Ergebnisse zu ziehen und letztlich die richtigen Informationen zur richtigen Zeit am richtigen Ort bereitzustellen. Egal ob es um Bild- und Videodaten, Analysedaten geschäftskritischer Anwendungen in Unternehmen und Forschung oder schlicht um das Datenvolumen aus Kommunikation und Social Media geht – Data Tiering ist das Schlüsselwort: Schließlich geht es um nichts geringeres als den Unternehmenserfolg. Bei Begriffen wie Business Intelligence, Business Analytics, Data Warehouse und Data Mining bekommt so mancher Unternehmenslenker schon mal glänzende Augen.

Strukturanalyse und Verfügbarkeit von Daten sind aber nur die eine Seite der Medaille, Datensicherheit und Zugriffskontrolle die andere. Welche Büchse der Pandora sich hier auftut, weiß seit Edward Snowden auch die breite Öffentlichkeit.

Gerade deshalb macht es Sinn, dass die Industrie den Stier bei den Hörnern packt und dem sinnvollen und sicheren Umgang mit Daten hohe Priorität einräumt. Als Motto der kommenden CeBIT haben die Verantwortlichen damit also ein gutes Näschen bewiesen. Wollen wir hoffen, dass es nicht bei Lippenbekenntnissen bleibt.

Die GfdS (Gesellschaft für deutsche Sprache) wird sich auf jeden Fall freuen, dass dem Nachschub an Wortschöpfungen auch 2014 keine Grenzen gesetzt sind und sich die Anwärter für das „Wort des Jahres 2014“ schon mal in Startposition bringen.

In diesem Sinne, eine erfolgreiche CeBIT 2014!

menuseperator

Ah, Herbst ist es wieder geworden und da das Laub nun mal unweigerlich fällt, sind auch die Laubbläser wieder in aller Munde und vor allem Ohren. Wie so oft scheiden sich die Geister am Nutzen oder Unnutzen des lärmenden Laubverblasens, das nachbarliche Hemmschwellen schon mal zum Sinken bringt.

Unmutsbekundungen ganz anderer Art vernimmt man derzeit aus dem Silicon Valley, wo so allmählich die Effekte der NSA-Enthüllungen auf die US-Technologie-Unternehmen sichtbar und spürbar werden.

Die Prognosen über den möglichen Schaden variieren, bewegen sich aber in Dimensionen, in denen 2- oder 3-stellige Milliardensummen nur noch wenig Unterschied in der Wahrnehmung machen. Laut einem Bericht der Branchenseite Siliconvalley.com beziffert die Information Technology & Innovation Foundation die Kosten des Vertrauensverlusts amerikanischer Unternehmen bis 2016 mit rund 35 Milliarden US-Dollar, Forrester Research spricht sogar von bis zu 180 Milliarden US-Dollar weltweit. Und nach einer Umfrage unter Mitgliedern der Cloud Security Alliance wurden bereits Cloud-Projekte abgebrochen. Das Vertrauen in die US-Anbieter hat also gewaltig gelitten.

Und das alles in Zeiten, in denen die Auguren von IDC verkünden, dass sich zwei von drei deutschen Unternehmen (und sicher nicht nur die) aufgemacht haben, ihre Geschäftsprozesse mit Hilfe von Cloud-Services zu optimieren. Sicher, es bleiben deutsche Anbieter, aber Datenströme halten sich ja bekanntlich nicht an Ländergrenzen.

Wenn also politische Appelle und öffentlicher Unmut nichts bewirken, hilft ja vielleicht der Druck durch wirtschaftliche Interessen – bis dahin fallen die Blätter weiter und wir sind gespannt, wie viel Laub noch verwirbelt wird, bis wieder klare Überlegungen die Oberhand gewinnen und politische wie rechtliche Klärung dem weiteren Ausbau von Cloud-Infrastrukturen nicht mehr im Wege stehen.

menuseperator

War es in aus heutiger Sicht gefühlt historischer Zeit, also damals im letzten Jahrtausend noch Usus, dass man sich dem Filetieren von Fröschen gewidmet hat, so richtet sich moderner Forschergeist auf höhere Ziele. Aktuelles Spaßobjekt der Forscher des Fraunhofer Instituts für Zuverlässigkeit und Mikrointegration IZM und zugegeben zeitgemäßer sind Tablets der landläufig bekannten Hersteller, die in sezierender Kleinarbeit auf ihre Recycling- und Reparaturfreundlichkeit getestet wurden.

Das Forschungsprojekt kommt zur rechten Zeit, da laut aktueller IDC-Prognose Tablets schon im 4. Quartal 2013 den Absatz von PCs und Notebooks zusammen überholen werden. Die stetig wachsende Akzeptanz von Tablets im Business-Umfeld mit entsprechenden Sicherheits-Features und spezialisierten Apps treibt dieses Wachstum an.

Was aber passiert, wenn das Gerät kaputt ist oder ausgemustert wird?

Auch bei Tablets sind die gängigen Label für umweltfreundliche Beschaffung von Informations- und Kommunikationstechnologie des Green Electronic Council (EPEAT) oder für Nachhaltigkeit in der Produktion und Wiederverwertung (TCO) anzutreffen.

Trotzdem überrascht es zumindest versierte Nutzer aktueller Tablets wenig, was die Forscher festgestellt haben: Bei der überwiegenden Zahl der Geräte ist eine Reparatur durch den Nutzer kaum möglich, weil der Versuch das Gehäuse zu öffnen bereits fehlschlägt und unbeabsichtigte Schäden provoziert.

Eine weitere Erkenntnis: Je hochwertiger und robuster ein Tablet ist, umso komplizierter gestaltet sich die Demontage – bedingt durch Verschraubung oder Verklebung von Komponenten, oder auch eine besonders flache Bauform, was wiederum die Reparatur wie auch das Recycling erschwert.

Die Ergebnisse wurden in einer gerade veröffentlichten Studie zusammengefasst.

Angesicht der zahlreichen nicht-erneuerbaren Materialien (Edelmetalle, Aluminium und spezielle Kunststoffe), die in einem Tablet enthalten sind, ist eine saubere Materialtrennung aber spätestens beim Recycling wichtig, um Wertstoffe wiederverwendbar zu machen. Dazu gehört auch, dass der Akku einfach entnommen werden kann, was beim Großteil der Geräte nicht möglich ist. Über Letzteres freuen sich ja schließlich auch die Anwender, die damit die Lebensdauer des Gerätes verlängern können. Namen nennt die Studie nicht, aber vereinzelte Hersteller – Ausnahmen bestätigen ja bekanntlich die Regel – denken mit und bieten Tablets, bei denen sich der Akku wechseln lässt.

Die Studie soll als Basis für ein künftiges Bewertungssystem von Tablets dienen. Es bleibt zu hoffen, dass in Zeiten wachsender Probleme mit Elektronik-Schrott und endlicher Ressourcen die Betrachtung der gesamten Wertschöpfungskette allmählich selbstverständlich wird.

menuseperator

Es war wohl nur eine Frage der Zeit, bis uns das Web 2.0 nach allen Errungenschaften des Internet-Zeitalters auch sein eigenes virtuelles Zahlungsmittel bescherte: das Bitcoin. Was zunächst nach einem interessanten Zeitvertreib ambitionierter Programmierer aussah, mausert sich so langsam zu einem ausgewachsenen Währungssystem – wenn auch mit einigen Haken und Ösen. 

Was die Bitcoins in Zeiten von PRISM und NSA-Skandal so interessant macht, ist die Tatsache, dass die Transaktionen anonym abgewickelt werden. Es gibt keine Verbindung zu Bankkonten, keine Namen und so gut wie keine Aufsicht. Die sonst übliche Überwachung des Zahlungsverkehrs wird damit umgangen. Da es keine zentrale Bank oder Institution gibt, die den Bitcoin-Handel und Zahlungsverkehr überwacht oder die Währung in Umlauf gibt, ist eine Regulation auch kaum möglich. Eine der Folgen ist allerdings auch eine hohe Volatilität, die eher an die Wertschwankungen von Aktien erinnert. Angebot und Nachfrage bestimmen den Kurswert. 

Verdienen kann man sich seine Bitcoins unter anderem durch Mining, was nicht von ungefähr an die Zeit der Goldgräber erinnert. Anders als Goldgräber müssen die Miner allerdings Rechenleistung einsetzen, um ihre Bitcoins zu schürfen. Mittels zweifacher SHA-256-Berechnung gilt es einen Hash-Wert zu errechnen, der unterhalb eines bestimmten Zielwertes liegt und damit einen neuen Block zu erzeugen. Dieser reiht sich in die Block Chain ein, eine Kette von Daten, die für alle einsehbar jede Transaktion dokumentiert. Der Lohn der Mühe sind dann Bitcoins, derzeit 25 Stück pro geschriebenem Block. Seit Anfang diesen Jahres gibt es erste ASIC-(application-specific integrated circuit) Rechner zum Mining von Bitcoins, mit denen das Mining rund 50 Mal schneller abläuft als mit GPU-basierten Systemen. Da das Mining durch die dafür notwendige hohe Rechenkapazität den meisten verschlossen ist, bleibt für den normalen Nutzer der Tauschhandel. Dafür existieren inzwischen eigene Internetbörsen und Bezahldienste.

Will man schnell und unkompliziert an Bitcoins kommen, bieten spezielle Plattformen auch OTC-Handel (Over-the-Counter) außerhalb der Internetbörsen an. Klingt konspirativ, ist es auch irgendwie. Privatleute finden sich auf Marktplätzen oder im Chat, vereinbaren ein Treffen und schieben sich mittels inzwischen vorhandener Apps Bitcoins gegen Bares über den Tresen. 

Trotz aller Hürden und Fallstricke, die Bitcoins scheinen auf dem Vormarsch. Immer mehr Internethändler und Organisationen setzen auf den virtuellen Zahlungsverkehr und lokale Initiativen wie der Bitcoin Kiez in Berlin Kreuzberg machen auch den Einkauf in normalen Geschäften möglich.

Es bleibt abzuwarten, ob wir künftig mehr von den digitalen Münzen sehen werden, oder ob es eine weitere virtuelle Blase ist, die nur ein paar Eingeweihte nutzen. Spannend ist es allemal.

Wie die virtuelle Währung im Alltag funktioniert, testet derzeit auch ein junges Ehepaar aus Utah, das für immerhin 3 Monate seine gesamten Zahlungen ausschließlich mit Bitcoins bestreitet. Ob und wie das funktioniert, werden wir dann laut Ankündigung im kommenden Jahr in einem Dokumentarfilm verfolgen können. Die Finanzierung für den Film jedenfalls wurde ganz real in Dollar über die Finanzierungsplattform Kickstarter gesichert – das Vertrauen in die Bitcoins ist demnach wohl auch bei den Fans noch begrenzt.

menuseperator