Cors Consulting GmbH Hamburg

Ihr Erfolg ist unser Ziel!

Bramfelder Straße 123 a 22305 Hamburg +49 · 40 · 52 15 67 79

Tech-News

Kekse in der Sandkiste

Vorweg: Schreiben wir was über das Crowdstrike-Desaster? Nein, tun wir nicht. Oft genug gab es hier schon CC-Tech-News mit einem Fokus auf FOSS (Free Open Source Software) und darauf, warum diese proprietärer Software in vielerlei Hinsicht überlegen ist. Und das ist auch genau die einzige Antwort auf das Microsoft-Versagen der vergangenen Woche. Nein, wir schreiben hier über eine andere, ähnlich bedeutsame Entwicklung: Googles Initiative »Privacy Sandbox« rückt von dem Plan ab, Cookies zu blockieren.
Weiterlesen

 

KI und Klima — eine Katastrophe

Im Februar hatten wir hier über den Umweltsünder KI berichtet. Und so traurig es ist: Nichts ist besser geworden. Im Gegenteil. Google und Microsoft, zwei der Giganten auf dem IT-Markt und federführend in der Entwicklung Künstlicher »Intelligenz«, rudern momentan zurück. Nach ihnen die Sintflut?
Weiterlesen

 

Umverteilung: Fossile finanzieren Erneuerbare

Es wird immer unübersehbarer: Die Nutzung fossiler Brennstoffe, die bislang die Wirtschaft der Industrienationen angekurbelt und am Laufen gehalten hat, muss dringendst beendet werden. Das ist auch längst möglich; erneuerbare Energiequellen werden mittlerweile sehr effektiv und kostengünstig eingesetzt. Um den Prozess noch zu beschleunigen, gibt es Überlegungen, Subventionen und Steuerlasten umzuverteilen.
Weiterlesen

 

Unsere Lösungen bringen Sie Ihren Zielen näher!

Unser Team

Wir sind ein junges, dynamisches Unternehmen mit zahlreichen Projekterfahrungen im In- und Ausland. Wir freuen uns darauf, Sie bei Ihren Projekten produktiv zu unterstützen.

Cors Consulting Team – Allen Simonian, Carrollin Simonian
Allen Simonian, Projektmanagement
Carrollin Simonian, SAP Solution Manager Consultant

Ihr Erfolg ist unser Ziel: Dieser Leitsatz prägt unser Denken und Arbeiten in allen Bereichen. Unsere Kunden und Geschäftspartner schätzen den zugewandten, persönlichen Kontakt, der Grundlage all unseren Handelns ist.

Allen Simonian, Projektmanagement

 

Über uns


Cors Consulting bündelt Kompetenzen im Bereich Projektmanagement, Beratung und Schulung für SAP Solution Manager. Unsere Erfahrungen basieren auf langjährigen nationalen und internationalen Projekten in den unterschiedlichsten Branchen.

Die interdisziplinäre Aufstellung ermöglicht eine effiziente und zielorientierte Lösung für Ihr Unternehmen. Somit ist Cors Consulting Ihr kompetenter Partner in den wichtigsten Geschäftsbereichen. Wichtigste Bestandteile unseres Firmencredos sind Nachhaltigkeit und Integrität.

Als Berater und Begleiter stehen wir Ihnen auch in komplizierten und zeitlich dringenden Situationen kompetent zur Seite.

 

Das Vertrauen unserer Kunden ist das größte Kompliment für unsere Leistung.

 

Wie können wir Ihnen helfen?

SAP Solution Manager

Sie benötigen Hilfe, Unterstützung oder Optimierung bei Ihrem SAP Solution Manager? Wir beraten Sie gerne!
Mehr lesen

SAP-Schulung

Halten Sie Ihre Mitarbeiter auf dem aktuellen Stand und stärken Sie so Ihr Unternehmen.
Mehr lesen

Projektmanagement

Unser Team aus Spezialisten steht Ihnen von der Beratung über die Analyse bis hin zu der Umsetzung und Begleitung Ihrer Projekte mit Rat und Tat zu Seite.
Mehr lesen

Workshops

Unsere Termin auf einen Blick – für Ihre Planungssicherheit.
Mehr lesen

Unternehmensberatung

Lassen Sie uns gemeinsam prüfen, ob Sie externe Dienstleistungen in angemessener Qualität erhalten.
Kontakt aufnehmen

Wir entwickeln zukunftsorientierte Strategien durch interdisziplinäre Beratung

Kontakt

Cors Consulting GmbH

Bramfelder Straße 123 a
D–22305 Hamburg

+49 · 40 · 52 15 67 79

+49 · 40 · 63 74 50 40

info@cors-consulting.de

Cors Group

CTC – Cors Training Center GmbH

· Staatlich anerkannter und zertifizierter Bildungsträger und Institut für Aus- und Weiterbildung


EX-MIL GmbH

· Privates Sicherheitsunternehmen – militärischer Standard


Unsere Partner:


Wie können wir Ihnen helfen?
Wir unterstützen Ihre Prozesse.

SAP Solution Manager

Egal, was bei Ihnen gerade ansteht – eine grundlegende Einführung, ein Update oder Upgrade, Konfiguration oder Customizing –, wir freuen uns, Sie bei Ihrem SAP-Solution-Manager-Projekt unterstützen zu dürfen.

Wie immer bei Cors Consulting gilt natürlich auch ganz besonders in diesem Bereich: Ihre und die Wünsche und Bedürfnisse Ihrer Mitarbeiter stehen für uns immer an erster Stelle!

Unsere SAP-Solution-Manager-Themen:

Prozess- und Qualitätsmanagement sind lebendige Vorgänge in Ihrem Unternehmen. Konzeptionelle Lösungsansätze helfen Verschwendung zu minimieren; die damit verbundene kontinuierliche Verbesserung erlaubt einen kritischen Blick auf alle laufenden Prozesse – und motiviert, sie zu optimieren.

Auf Ihre Bedürfnisse abgestimmt:
Wir halten Sie up-to-date!

SAP-Schulung

Es heute wichtiger als je zuvor, mit dem rasanten Tempo der Entwicklungen Schritt zu halten. Das heißt auch: die eigenen Mitarbeiter auf dem aktuellen Stand zu halten – und letztlich damit wiederum das eigene Unternehmen zu stärken.

Cors Consulting bietet Ihnen speziell auf Ihr Unternehmen abgestimmte Schulungen für den SAP Solution Manager. Dabei ist es unerheblich, ob Sie sich neu für die Möglichkeiten des SAP Solution Manager entscheiden, ein schon bestehendes System weiter ausbauen wollen – oder ob es darum geht, Ihre Mitarbeiter fester in den SAP-Sattel zu setzen. Unsere Trainer und Experten werden Sie dabei jederzeit gerne unterstützen.

Entscheiden Sie, was für Sie und Ihren ganz speziellen Geschäftsablauf am angenehmsten zu realisieren ist: Wir können die Schulungen vor Ort, in Ihrem Unternehmen durchführen, oder Sie nutzen die Weiterbildung via Webinar. Ganz, wie es beliebt und am besten passt.

Hier auf einen Blick:
Unsere Schulungstermine

Workshops

Unsere Schulungstermine

+++ Momentan noch TBA +++

Demnächst finden Sie hier unsere Schulungstermine.

Professionelle Projektrealisierung.
Von der Initialisierung bis zum Abschluss.

Projektmanagement

Projekte sind einmalige End-to-End-Prozesse. Aufgabe des Projektmanagements ist die Strukturierung, Planung, Überwachung und Steuerung einer einmaligen Wertschöpfungsprozesskette.

Unter dem Begriff Projektmanagement fassen wir die folgenden Bereiche zusammen:

 


Projektziele

Die Zieldefinition ist die wichtigste und zu gleich die komplizierteste Phase in einem Projekt. Mit Ihnen gemeinsam, definieren wir Ihre Projektziele, bereits in der Findungsphase.


Projektumfeld

Ein Projektumfeld ist die Umgebung, in der ein Projekt geplant, durchgeführt und bewertet wird. Jedes Projekt ist in einem vorgegebenen Umfeld fixiert und muss vor Projektstart sorgfältig betrachtet werden. Die ständige Analyse des Projektumfeldes ist unerlässlich um mögliche Chancen und/oder Risiken frühzeitig zu erkennen um entsprechend lenkend eingreifen zu können.


Stakeholder/​Stakeholdermanagement

Stakeholder sind Personen oder Personengruppen, die einen berechtigten Anspruch an einem Projekt und dessen Ergebnis haben, daran beteiligt oder betroffen sind oder sich davon subjektiv betroffen fühlen.


Risikoanalyse

Die Risikoanalyse ist ein elementarer Bestandteil im Projektmanagement und sollte permanent und über die gesamte Projektdauer stattfinden. Eine Risikoanalyse unterstützt die Identifizierung vorhandener sowie mögliche in Projektdauer aufkommende Risiken. Anhand derer können Risiken vermieden, verlagert, akzeptiert und sogar begrenzt werden. Die Risikoanalyse ist ein Frühwarnsystem mit den Risken kontrolliert werden können.


Projektorganisation und Kommunikation

Um das Projekt und dayli-business gleichzeitig gewährleisten zu können sollte optimalerweise für die Projektdauer eine -Projektorganisation eingenommen werden. Diese Organisationsform gewährleistet sowohl die Erfüllung des alltäglichen Dienstes als auch des Projekts. Die Vor-/Nachteile der unterschiedlichen Projektorganisation sind je nach Projekt und Unternehmensgröße individuell zu bestimmen.


Kommunikation

Um den Projekterfolg reibungslos und unmissverständlich zu gestalten, ist essentiell von Bedeutung, dass alle beteiligten Parteien (Stakeholder) das gleiche Verständigungsmodul nutzen. Alle Teilnehmer müssen unmissverständlich und genau vom gleichen Bild sprechen, wenn es um das Projektoberziel geht.


Phasenplanung

Für jedes Projekt muss eine Phasenplanung gewählt werden, die den Anforderungen des Projekts entspricht.


Projektstrukturplan

Der Projektstrukturplan (PSP) zeigt die grundlegende Struktur des Projektes auf. In ihm werden Teilaufgaben definiert und in Arbeitspakete unterteilt. Diese Strukturierung liefert eine gute Übersicht über das Projekt in seiner Gesamtheit, über den Projektinhalt und die Erstellung der Arbeitspakete mit eindeutiger Verantwortlichkeit.

Der Projektstrukturplan stellt die Basis aller weiteren Pläne innerhalb eines Projektes dar und wird deshalb auch als „Mutter aller Pläne“ bezeichnet. Der PSP kann nach unterschiedlichen Kriterien gegliedert werden. Jedoch wird der PSP immer in einer hierarchischen Baumstruktur aufgebaut, die aus Wurzelelement, Teilaufgaben und Arbeitspaket besteht. Die kleinste Einheit und nicht mehr teilbare Einheit innerhalb des PSP ist das Arbeitspaket.


Ablaufplanung

Als Ergebnis des Projektstrukturplanung erhält man die einzelnen Arbeitspakete (oder Vorgänge). Es ist jedoch noch nicht bekannt, in welcher Reihenfolge die Vorgänge durchzuführen sind. Dies macht die Ablaufplanung. Dazu muss die logische und zeitliche Abfolge der Projektaktivitäten ermittelt werden. Die Abhängigkeiten der einzelnen Vorgänge müssen festgestellt werden: Manche Vorgänge müssen zeitlich nacheinander durchgeführt werden, andere können parallel laufen.


Terminplanung

Für die Terminplanung bildet der Projektablaufplan die Grundlage.

Aufgaben:

  • Ermittlung und Dauer der einzelnen Vorgänge
  • Ermitteln von Projektterminen, Anfang/Ende von Vorgängen
  • Ermitteln und berechnen von Pufferzeiten
  • Ermitteln des Kritischen Pfads

Einsatzmittelplanung

Einsatzmittelplanung/Ressourcenplanung sind:

  • Personal
  • Material
  • Betriebsmittel
  • Sonstige Leistungen (z. B. externe Dienstleitungen)

Die Einsatzmittelplanung muss den für die Erstellung der Projektleistung notwendigen Bedarf ermitteln, mit den verfügbaren Kapazitäten abstimmen und eventuelle Engpässe feststellen.


Kostenplanung

Aus Bewertung der Einsatzmittel ergeben sich sowohl die Gesamtkosten des Projekts als auch die zeitliche Verteilung der Projektkosten über die Projektlaufzeit.

Warum die Kostenplanung?

  • Wirtschaftlichkeitsvergleiche, Kalkulation, Angebotskalkulation
  • Kostenüberwachung und -steuerung bei Projektdurchführung
  • Grundlage der Finanzplanung, und die Planung der Zahlungen im zeitlichen Ablauf

Unser Ziel ist es, Ihr Projekt optimal auszurichten, um Ressourcen, Zeit und Kosten im Gleichgewicht zu halten.

Impressum

Betreiberin dieser Website im Sinne des § 5 TMG
und verantwortlich für den Inhalt nach § 18 Abs. 2 MStV ist die

Cors Consulting GmbH

Bramfelder Straße 123 a
D–22305 Hamburg

Vertreten durch:
Carrollin Simonian und Allen Simonian


Registereintrag:

Eintragung im Handelsregister B betreffend Cors Consulting GmbH

Registergericht: Amtsgericht Hamburg
Registernummer: HRB 150142
Umsatzsteuer-ID: DE309044478
Steuernummer: 43/712/02299

Die Betreiberin ist nicht verpflichtet, an Streitbeilegungsverfahren vor einer Verbraucherschlichtungsstelle teilzunehmen.


Verwendete Schriften:

  1. Open Sans von Ascender Fonts (Lizenz: Apache License 2.0).
  2. Montserrat von Julieta Ulanovsky (Lizenz: SIL Open Font License Version 1.1).
  3. Font Awesome von Dave Gandy (Lizenz: Font Awesome Free License).

Alle Hintergrundbilder: Pixabay (Lizenz: Pixabay License).


Datenschutz

1. Datenschutz auf einen Blick

Allgemeine Hinweise

Die folgenden Hinweise geben einen einfachen Überblick darüber, wie wir Ihre personenbezogenen Daten erheben und verarbeiten. Personenbezogene Daten sind alle Daten, mit denen Sie persönlich identifiziert werden können. Ausführliche Informationen zum Thema Datenschutz entnehmen Sie unserer unter diesem Text aufgeführten Datenschutzerklärung.

Datenerfassung auf unserer Website

Wer ist verantwortlich für die Datenerfassung auf unserer Website?

Die Datenverarbeitung auf http://www.cors-consulting.de erfolgt durch

CORS CONSULTING GMBH
(haftungsbeschränkt)
Bramfelder Straße 123 a
D-22305 Hamburg

Wie erfassen wir Ihre Daten auf unserer Website?

Wenn Sie unsere Website (http://www.cors-consulting.de) nur nutzen, um sich zu informieren, dann verarbeiten wir nur die Daten, die zur Anzeige der Website auf dem von Ihnen verwendeten internetfähigen Gerät erforderlich sind. Das sind insbesondere:

Rechtsgrundlage für die Verarbeitung dieser Daten sind berechtigte Interessen gemäß Art. 6 Abs. 1 UAbs. 1 Buchstabe f) DSGVO, um die Darstellung der Website grundsätzlich zu ermöglichen.

Wofür nutzen wir Ihre Daten?

Beim Besuch unserer Website kann Ihr Surf-Verhalten statistisch ausgewertet werden. Die Analyse Ihres Surf-Verhaltens erfolgt anonym; das Surf-Verhalten kann nicht zu Ihnen zurückverfolgt werden.

Werden personenbezogenen Daten beim Benutzen der Website http://www.cors-consulting.de erhoben?

Beim Benutzen unserer Website werden keine personenbezogenen Daten erhoben. Außerdem verzichten wir auf eigene und Third-Party-Cookies.

Welche Rechte haben Sie bezüglich Ihrer Daten?

Sie haben jederzeit das Recht, unentgeltlich Auskunft über Herkunft, Empfänger und Zweck Ihrer gespeicherten personenbezogenen Daten zu erhalten. Sie haben außerdem ein Recht, die Berichtigung, Sperrung oder Löschung dieser Daten zu verlangen. Hierzu sowie zu weiteren Fragen zum Thema Datenschutz können Sie sich jederzeit unter der E-Mail-Adresse datenschutz@cors-consulting.de an uns wenden. Des Weiteren steht Ihnen ein Beschwerderecht bei der zuständigen Aufsichtsbehörde zu.

Matomo

Wir verwenden die Open-Source-Software Matomo zur Analyse und statistischen Auswertung der Nutzung unserer Website. Dazu werden Cookies eingesetzt; die dadurch erhaltenen Informationen über die Websitenutzung werden ausschließlich an unsere Server übertragen und in pseudonymen Nutzungsprofilen zusammengefasst. Die Daten verwenden wir zur Auswertung der Nutzung der Website. Eine Weitergabe der erfassten Daten an Dritte erfolgt nicht.

Die IP-Adressen werden anonymisiert (IPMasking), sodass eine Zuordnung zu einzelnen Nutzern nicht möglich ist.

Die Verarbeitung der Daten erfolgt auf Grundlage von Art. 6 Abs. 1 S. 1 lit. a DSGVO. Wir verfolgen damit unser berechtigtes Interesse an der Optimierung unserer Webseite für unsere Außendarstellung.

Sie können Ihre Einwilligung jederzeit widerrufen, indem Sie die Cookies in Ihrem Browser löschen oder Ihre Datenschutzeinstellungen ändern.

Außerdem bieten wir Ihnen hier die Möglichkeit, die Matomo-Datenerfassung in diesem Browser zu unterbinden:

2. Allgemeine Hinweise und Pflichtinformationen

Datenschutz

Die Cors Consulting GmbH nimmt den Schutz Ihrer persönlichen Daten sehr ernst. Wir behandeln Ihre personenbezogenen Daten vertraulich und entsprechend der gesetzlichen Datenschutzvorschriften sowie dieser Datenschutzerklärung.

Wenn Sie diese Website benutzen, werden keine personenbezogenen Daten erhoben.

Wir weisen darauf hin, dass die Datenübertragung im Internet (z. B. bei der Kommunikation per E-Mail) Sicherheitslücken aufweisen kann. Ein lückenloser Schutz der Daten vor dem Zugriff durch Dritte ist nicht möglich.

Hinweis zur verantwortlichen Stelle

Die verantwortliche Stelle für die Datenverarbeitung auf dieser Website ist:

Cors Consulting GmbH
Beratungsunternehmen
Carrollin Simonian

Bramfelder Straße 123 a
22305 Hamburg

Telefon: +49 · 40 · 52 15 67 79
E-Mail: datenschutz@cors-consulting.de

Verantwortliche Stelle ist die natürliche oder juristische Person, die allein oder gemeinsam mit anderen über die Zwecke und Mittel der Verarbeitung von personenbezogenen Daten (z. B. Namen, E-Mail-Adressen o.Ä.) entscheidet.

Widerruf Ihrer Einwilligung zur Datenverarbeitung

Viele Datenverarbeitungsvorgänge sind nur mit Ihrer ausdrücklichen Einwilligung möglich. Sie können eine bereits erteilte Einwilligung jederzeit widerrufen. Dazu reicht eine formlose Mitteilung per E-Mail an datenschutz@cors-consulting.de. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Datenverarbeitung bleibt vom Widerruf unberührt.

Beschwerderecht bei der zuständigen Aufsichtsbehörde

Im Falle datenschutzrechtlicher Verstöße steht dem Betroffenen ein Beschwerderecht bei der zuständigen Aufsichtsbehörde zu. Zuständige Aufsichtsbehörde in datenschutzrechtlichen Fragen ist der Landesdatenschutzbeauftragte des Bundeslandes, in dem unser Unternehmen seinen Sitz hat. Eine Liste der Datenschutzbeauftragten sowie deren Kontaktdaten können folgendem Link entnommen werden: https://www.bfdi.bund.de/DE/Infothek/Anschriften_Links/anschriften_links-node.html.

Recht auf Datenübertragbarkeit

Sie haben das Recht, Daten, die wir auf Grundlage Ihrer Einwilligung oder in Erfüllung eines Vertrags automatisiert verarbeiten, an sich oder an einen Dritten in einem gängigen, maschinenlesbaren Format aushändigen zu lassen. Sofern Sie die direkte Übertragung der Daten an einen anderen Verantwortlichen verlangen, erfolgt dies nur, soweit es technisch machbar ist.

SSL- bzw. TLS-Verschlüsselung

Diese Seite nutzt aus Sicherheitsgründen und zum Schutz der Übertragung vertraulicher Inhalte, wie zum Beispiel Bestellungen oder Anfragen, die Sie an uns als Seitenbetreiber senden, eine SSL-bzw. TLS-Verschlüsselung. Eine verschlüsselte Verbindung erkennen Sie daran, dass die Adresszeile des Browsers von “http://” auf “https://” wechselt, und an dem Schloss-Symbol in Ihrer Browserzeile.

Wenn die SSL- bzw. TLS-Verschlüsselung aktiviert ist, können die Daten, die Sie an uns übermitteln, nicht von Dritten mitgelesen werden.

Auskunft, Sperrung, Löschung

Sie haben im Rahmen der geltenden gesetzlichen Bestimmungen jederzeit das Recht auf unentgeltliche Auskunft über Ihre gespeicherten personenbezogenen Daten, deren Herkunft und Empfänger und den Zweck der Datenverarbeitung und ggf. ein Recht auf Berichtigung, Sperrung oder Löschung dieser Daten. Hierzu sowie zu weiteren Fragen zum Thema personenbezogene Daten können Sie sich jederzeit unter der im Impressum angegebenen Adresse an uns wenden.

Widerspruch gegen Werbe-Mails

Der Nutzung von im Rahmen der Impressumspflicht veröffentlichten Kontaktdaten zur Übersendung von nicht ausdrücklich angeforderter Werbung und Informationsmaterialien wird hiermit widersprochen. Die Betreiber der Seiten behalten sich ausdrücklich rechtliche Schritte im Falle der unverlangten Zusendung von Werbeinformationen, etwa durch Spam-E-Mails, vor.

 

 

 

Tech-News

Kekse in der Sandkiste

+

Vorweg: Schreiben wir was über das Crowdstrike-Desaster? Nein, tun wir nicht. Oft genug gab es hier schon CC-Tech-News mit einem Fokus auf FOSS (Free Open Source Software) und darauf, warum diese proprietärer Software in vielerlei Hinsicht überlegen ist. Und das ist auch genau die einzige Antwort auf das Microsoft-Versagen der vergangenen Woche. Nein, wir schreiben hier über eine andere, ähnlich bedeutsame Entwicklung: Googles Initiative »Privacy Sandbox« rückt von dem Plan ab, Cookies zu blockieren.

Mal ehrlich: Dieser Tage durchs Internet zu surfen ist kein reines Vergnügen mehr, oder? (War es das jemals? ist eine berechtigte Frage, aber die steht auf einem anderen Blatt.) Bei jedem Öffnen einer neuen Site legt sich erstmal aufdringlich ein Cookie-Banner über der den Inhalt, und wer nicht reflexhaft auf »Alles akzeptieren« klickt (was niemand tun sollte), hat je nach Anbieter einige Minuten konzentrierter Arbeit vor sich.

Die wenigsten dieser Banner zeigen die Option »Alles verbieten«, immerhin nimmt die Zahl derer zu, auf denen sich »Nur essenzielle erlauben« anklicken lässt, aber was wir uns tief im Innern doch eigentlich wünschen, ist, dass solche Banner gar nicht nötig wären. Richtig?

Google, Erfinderin des Cookie-gestützten Trackings, hat vor einer Weile angekündigt, im Chrome-Browser Cookies grundsätzlich zu sperren. Ab 2022.

Ah! Oh!

Äh – aber dann war es plötzlich schon 2022; huch! Daraufhin wurde der Termin auf 2025 verschoben. Und jetzt? Rudert der IT-Gigant ganz und gar zurück. DER SPIEGEL schrieb vorgestern: Anders als angekündigt, wird Googles Browser Chrome auch 2025 weiter Werbecookies akzeptieren. Damit steht das ganze Projekt auf der Kippe.

Das ganze Projekt, das auf der Kippe steht, nennt sich »Privacy Sandbox« und ist eine von Google betriebene Initiative mit dem Ziel, die Quadratur des Kreises umzusetzen: Gezielt Werbung anbieten (denn das ist die Grundlage von Googles phänomenalen Umsätzen) und gleichzeitig die Privatsphäre der Nutzer nicht verletzen.

Spoiler Alert: Die Quadratur des Kreises ist ein unlösbares Problem der Geometrie, und es wird auch Google nicht gelingen, gezielte Werbung anzubieten, die Internetnutzer nicht ausspioniert. Zumal die Firma das vermutlich auch gar nicht will – schon vor vierzehn Jahren sagte der damalige Google-CEO und Multimilliardär Eric Schmidt: We know where you are. We know where you’ve been. We can more or less know what you’re thinking about. (Wir wissen, wo du bist. Wir wissen, wo du warst. Wir wissen mehr oder weniger, was du denkst.)

Nach außen allerdings hat die Firma immer wieder versucht, sich einen »Ihr-freundlicher-Nachbar«-Anstrich zu geben; Don’t be evil (Sei nicht böse oder Tu nichts Böses) war bis 2015 Firmenmotto und stand bis 2018 immerhin noch am Anfang des Verhaltenskodex. (Inzwischen ist der Satz verschämt an dessen Ende gerutscht. Als Fußnote sozusagen.)

Es verwundert also nicht, wenn die Firma erstens diesen Rückzieher macht und zweitens nichts wirklich Konkretes als Ersatz anbietet.

Der Konzern formuliert es auf der Projektseite eher nebulös: Instead of deprecating third-party cookies, we would introduce a new experience in Chrome that lets people make an informed choice that applies across their web browsing, and they’d be able to adjust that choice at any time. Grob übersetzt heißt das etwa: Statt Cookies aufzugeben, werden wir uns was ganz Tolles ausdenken, damit ihr selbstbestimmt wählen könnt, ihr werdet schon sehen!

Der Teilsatz that applies across their web browsing bedeutet übrigens, dass auch weiterhin verschiedene Geräte – privates Smartphone, Job-Smartphone, Laptop, Smart-TV, Xbox, Fitness-Armband etc. – miteinander verknüpft werden sollen, damit Google und die Werbetreibenden ein möglichst vollständiges Bild erhalten.

Ach, und warum das wichtig ist? Nun ja, Chrome ist mit Abstand der meistverbreitete Web-Browser (rund 65 % Marktanteil) auf Computern und auch auf Mobilgeräten (rund 55 %). Heißt erstens: Von deren Cookies sind die meisten Menschen betroffen, und zweitens: Wenn die diese Initiative wieder zurückziehen, gibt es für andere Browser-Hersteller noch weniger Anlass, nicht evil zu sein.

Firefox zum Beispiel hat gerade für seine augenwischerische PPA (Privacy Preserving Attribution API) einen veritablen Shitstorm kassiert, und das zu recht: Mit dem jüngsten Update werden plötzlich Nutzerdaten an Werbetreibende weitergegeben – und zwar nicht als Opt-in, also mit Zustimmung der Nutzer*innen, sondern als in den Einstellungen verborgenes Opt-out (Häkchen entfernen).

KI und Klima — eine Katastrophe

+

Im Februar hatten wir hier über den Umweltsünder KI berichtet. Und so traurig es ist: Nichts ist besser geworden. Im Gegenteil. Google und Microsoft, zwei der Giganten auf dem IT-Markt und federführend in der Entwicklung Künstlicher »Intelligenz«¹, rudern momentan zurück. Nach ihnen die Sintflut?

Wir haben es uns anders überlegt, so scheint das neue Firmenmotto bei Google zu lauten, wenn es um Einhaltung von CO₂-Zielen geht. In seinem jährlichen Umweltbericht (Hinweis: der Link öffnet eine Google-eigene Seite, auf der die Datenschutzregeln des Unternehmens gelten, die mit dem tatsächlichen Schutz persönlicher Daten nicht viel am Hut haben; also Vorsicht beim Klicken), in diesem Bericht also schreibt der Konzern: Beginnend mit dem Jahr 2023 halten wir die operative CO₂-Neutralität nicht mehr aufrecht. (Original: Starting in 2023, we’re no longer maintaining operational carbon neutrality.)

Über die neue Maxime berichteten kürzlich Bloomberg und DER SPIEGEL.

Die Kohlenstoff-»Neutralität«, die der IT-Riese seit 2007 stolz beworben hatte, war ohnehin hauptsächlich durch den Kauf von Zertifikaten erreicht worden. Wie viel (oder besser gesagt: wenig) die tatsächlich wert sind, zeigt zum Beispiel eine Recherche des ARD-Magazins FAKT.

Tatsächlich ist Googles Ausstoß des Treibhausgases in den vergangenen fünf Jahren um fast 50 % gestiegen, schrieb DER SPIEGEL schon vor zwei Wochen. Grund vor allem: der Energiehunger der LLMs und andere sogenannter »KI«-Anwendungen. Aus windigen Quellen Zertifikate kaufen, um dieses Problem unsichtbar zu machen, darf mit Fug und Recht als »Greenwashing« bezeichnet werden. Das wird immer mehr Menschen immer klarer; gut möglich, dass der Konzern nicht zuletzt deshalb einen anderen Weg gehen will. Der allerdings, Spoiler Alert, keinen Deut besser ist.

Im Umweltbericht heißt es jetzt nämlich, Google konzentriere sich stattdessen darauf, eine große Reihe von CO₂-Lösungen und Partnerschaften voranzutreiben, die uns dabei helfen sollen, unserem Null-Emissionen-Ziel näherzukommen, und wir wollen eine wichtige Rolle spielen bei der Förderung der Entwicklung und des Einsatzes natürlicher und technologischer Kohlenstoff-Entfernungsmethoden, die nötig sind, um den Klimawandel zu begrenzen. (Original: We’re instead focusing on accelerating an array of carbon solutions and partnerships that will help us work toward our net-zero goal, and are aiming to play an important role in advancing the development and deployment of nature-based and technology-based carbon removal solutions required to mitigate climate change.

Viele Worte, die im Grunde sagen: Wir hauen einfach weiter CO₂ raus, als gäbe es kein Morgen, aber gleichzeitig tun wir so, als würden wir es auch wieder aus der Atmosphäre entfernen. Dass das Augenwischerei ist, haben wir hier im Mai berichtet und dabei unter anderem den Professor und Wissenschaftsjournalisten Christian Stöcker zitiert, der die Verfahren »Direct Air Capture« (DAC) und »Carbon Capture and Storage« (CCS) gründlich und nachhaltig entlarvt.

Und auch Microsoft beschreitet unbeirrbar weiter den Pfad der Technologie-Gläubigkeit: In dem oben verlinkten Artikel berichtet DER SPIEGEL: Der Softwarekonzern kauft demnach über einen Zeitraum von sechs Jahren Zertifikate von 1PointFive, die einer Entfernung von 500.000 metrischen Tonnen Kohlendioxid aus der Atmosphäre entsprechen. Und weiter: 1PointFive gehört zum Öl- und Gaskonzern Occidental Petroleum aus den USA und setzt auf sogenannte DAC-Systeme, kurz für ›direct air capture‹.

Ja, richtig gelesen: Die Ölbranche macht jetzt in CO₂-Entfernung. Das erinnert stark an den Öl-Sultan als Kopf der COP28, damals, im November/Dezember 2023.

Christian Stöcker hat ein Buch geschrieben mit dem schönen Titel »Männer, die die Welt verbrennen«. Und so, wie sich die aktuellen Entwicklungen bei zwei der größten »KI«- und IT-Multis darstellen, hat wohl auf absehbare Zeit auch allem Anschein nach niemand Interesse am Feuerlöschen.

¹ LLMs, also die Large Language Models, die zum Beispiel Sprachroboter wie ChatGPT, Microsofts umstrittenen Copilot oder Elon Musks Grok antreiben, weisen ebensowenig Zeichen von Intelligenz auf wie promptgestützte Bildgeneratoren, Midjourney, Stable Diffusion, DALL-E und ähnliche.

Umverteilung: Fossile finanzieren Erneuerbare

+

Es wird immer unübersehbarer: Die Nutzung fossiler Brennstoffe, die bislang die Wirtschaft der Industrienationen angekurbelt und am Laufen gehalten hat, muss dringendst beendet werden. Das ist auch längst möglich; erneuerbare Energiequellen werden mittlerweile sehr effektiv und kostengünstig eingesetzt. Um den Prozess noch zu beschleunigen, gibt es Überlegungen, Subventionen und Steuerlasten umzuverteilen.

Erst kürzlich meldete sich ein Expert*innengremium zu Wort und forderte: Fossile sollen höher als bisher besteuert werden. Und der Ertrag aus diesen Steuererhöhungen soll direkt auf die Erneuerbaren umgeleitet werden, damit die günstiger werden. Und das war nicht irgendeine obskure Gruppe von weltfernen »Öko-Spinnern«, wie ja manche seriöse Umweltschützer von rechten und konservativen Kräften gern genannt werden – sondern ein Beratergremium der Bundesregierung.

Im etwas umständlicheren Deutsch des neuen Monitoringberichts der Expertenkommission zum Energiewende-Monitoring klingt das so: Aus Sicht der Expertenkommission ist insbesondere eine CO₂-preisbasierte Energiepreisreform ein zentraler Bestandteil eines effektiven und effizienten Rahmens zur Erreichung der langfristigen Energiewende- und Klimaschutzziele. Dabei sollen die Umlagen und Abgaben auf Strom gesenkt werden und dies mit einer CO₂-Bepreisung fossiler Energieträger gegenfinanziert werden.

Vier Menschen gehören der Kommission an: Der Vorsitzende ist Andreas Löschel, Professor und Inhaber des Lehrstuhls für Umwelt-/Ressourcenökonomik und Nachhaltigkeit an der Ruhr-Universität Bochum. Veronika Grimm ist Professorin an der Technischen Universität Nürnberg (UTN) und Leiterin des Energy Systems und Market Design Lab. Felix Matthes ist Forschungskoordinator im Bereich Energie- und Klimaschutz beim Freiburger Öko-Institut. Und die Professorin Anke Weidlich leitet das Institut für Nachhaltige Technische Systeme an der Albert-Ludwigs-Universität Freiburg.

Grimm sagte anlässlich der Veröffentlichung des Berichts laut SPIEGEL auch, dass der Kohleausstieg nur möglich sei, wenn es gelingt, die Energieversorgung abzusichern, wenn kein Strom aus Wind- oder Solarenergie gewonnen werden kann. Das aber wird schon sehr bald der Fall sein, wie der Wissenschaftsjournalist, Autor und Kommunikations-Professor Christian Stöcker in einer seiner letzten SPIEGEL-Kolumnen betont: Solarstrom gibt es bald auch nachts, Windstrom bei Windstille, denn es wird ganz aktuell massiv am Ausbau von Batterie-Großspeichern gearbeitet, in Sachsen-Anhalt und Schleswig-Holstein, in Niedersachsen und der Oberlausitz. Das Nachrichtenportal ingenieur.de stellte vergangenen November drei rekordverdächtige Projekte vor.

Die Website nennt solche Mammut-Speicherprojekte die Schlüsseltechnologie der Energiewende, denn Batteriegroßspeicher zeichnen sich durch ihre hohe Effizienz, die über 90 Prozent beträgt, sowie ihre extrem schnelle Reaktionsfähigkeit aus, da sie die volle Leistung innerhalb von Sekundenbruchteilen bereitstellen können.

Ach, und übrigens: Dabei braucht man noch nicht mal die als Umweltsünde kritisierten Lithium-Akkus, schreibt Stöcker in der oben verlinkten Kolumne. Denn zum Beispiel in Asien wird intensiv an Natrium-Ionen-Batterien geforscht; darüber hatten wir hier Ende April schon berichtet.

Es geht also unaufhaltsam voran, und der übliche Spruch von Erneuerbaren-Kritikern, nachts scheint die Sonne nicht, kann schon sehr bald mit einem achselzuckenden Na und? beantwortet werden.

Gut so.

21 Megawatt im Watt

+

Um’s gleich klarzustellen: Die Anlage liegt nicht im dänischen Wattenmeer. Die Insel Rømø und ihre Nachbarn sind rund 220 Kilometer Luftline südlich von Thisted gelegen, wo sich das Windkraftanlagentestfeld Østerild befindet. Seit 2012 können dort unter der Schirmherrschaft von Danmarks Tekniske Universitet (DTU) Windkraftanlagen mit einer Gesamthöhe von bis zu 330 Metern getestet werden. Der jüngste Neuzugang dürfte das Maximum fast erreichen – eine geplante Anlage von Siemens soll schon allein 276 Meter Rotordurchmesser haben.

Siemens Gamesa Renewable Energy (SGRE) ist eine Tochter von Siemens Energy; ihr Haupt-Firmensitz liegt vier Kilometer entfernt vom Flughafen Bilbao im spanischen Zamudio. Und sie hat auch einen Sitz im dänischen Brande, der letztlich zuständig ist für die Testfelder in Nord-Dänemark. Siemens Gamesa besitzt, zusammen mit Vestas Wind Systems, vier der neun Teststände in Østerild. Dort will die Firma offenbar laut verschiedenen Berichten, wie heise schreibt, eine neue Test-Anlage bauen, die für 21 Megawatt ausgelegt sein soll.

Europas stärkste und größte Windkraftanlage ist bis jetzt »V236-15.0 MW« von Vestas mit 15 Megawatt Leistung, schreibt Wikipedia. Die neue Siemens-Anlage wäre auf einen Schlag 40 % leistungsfähiger und neuer Rekordhalter.

Eine Kleinigkeit ist allerdings anzumerken: Noch ist die Anlage seitens Siemens Gamesa nicht offiziell bestätigt. Zwar hat der Konzern Anfang des Jahres für weitere Forschungen an leistungsstarken Windkraftanlagen 30 Millionen Euro Fördermittel von der Europäischen Union erhalten, wie heise in der Meldung schreibt, und teilte auf Anfrage auch mit, dass der Standort Østerild eine teilweise von der Europäischen Kommission finanzierte Testanlage sei – aber den Bau einer 21-Megawatt-Windkraftanlage bestätigte die Firma bislang nicht.

Trotzdem schreibt heise: Mit einer Verfügbarkeit der 21-MW-Anlage rechnen Branchenkenner zum Ende dieses Jahrzehnts.

Ob die neue Anlage auch schon die vollständig recycelbaren Rotorblätter enthalten wird, die Siemens Gamesa 2021 vorgestellt hat, ist noch nicht bekannt; ebensowenig, ob der Stahl für die Anlage über die von der Firma 2023 angekündigte verbesserte CO₂-Bilanz verfügt oder nicht. Eine Delle in die Ökobilanz schlug 2010 auf jeden Fall, dass zur Erweiterung des Testfelds Teile der Dünengehölz-Anpflanzung Østerild und damit bis zu 1200 Hektar geschützter Wald abgeholzt wurden. Und: Riesige Windturbinen können Brutplätze von Adlern zerstören, titelte damals die dänische Zeitung Politiken.

DPP OK?

+

CEN,CENELEC und ETSI, DIN und DKE – wer sich mit dem Stand der Dinge in Sachen Digitaler Produktpass (Digital Product Passport, DPP) beschäftigt, wird mit einer Vielzahl von Akronymen konfrontiert. Momentan geht es nämlich darum, verbindliche Normen zu entwickeln, und dafür sind Institute und Einrichtungen zuständig, die meist nur unter ihrem abgekürzten Namen bekannt sind. Viel Zeit haben die Beteiligten nicht: Erst 2022 ins Leben gerufen, soll der Digitale Produktpass schon ab 2027 verbindlich eingesetzt werden. Das ist ehrgeizig – wird es auch klappen?

Bringen wir mal zum Einstieg etwas Licht in den Buchstaben-Dschungel. CEN ist das Europäische Komitee für Normung, CENELEC steht für das Europäische Komitee für elektrotechnische Normung, ETSI ist das Europäische Institut für Telekommunikationsnormen. Die EU-Kommission hat diese drei im Oktober 2023 damit beauftragt, die zur Umsetzung des DPP notwendigen Normen zu entwickeln.

Schon im Juli 2023 hat das Deutsche Institut für Normung (DIN) gemeinsam mit der Deutschen Kommission Elektrotechnik Elektronik Informationstechnik (DKE) ein Gremium gegründet, das Gemeinschaftsgremium »Digitaler Produktpass«. Auch auf EU-Ebene gibt es eine Entsprechung: CEN und CENELEC haben das »Joint Technical Committee 24 Digital Product Passport« gegründet, dessen Arbeit das deutsche Gremium national spiegeln und die deutschen Interessen auf europäischer Ebene vertreten wird.

Das sind erst einmal eine Menge Absichtserklärungen und Vorhaben – aber was genau ist denn eigentlich das Ziel der konzertierten Aktion?

In einer ersten Runde sollen Batterien mit einem DPP ausgestattet werden, dann sollen zum Beispiel Elektrogeräte, Textilien, Möbel, Stahl, Zement und Chemikalien folgen. Der DPP soll alle möglichen Informationen zusammenfassen, die ein bestimmtes Produkt betreffen. Bestandteile, Materialien, Inhaltsstoffe, unter Umständen auch chemische Komponenten gehören dazu, aber auch Infos zur Reparierbarkeit, zu Ersatzteilen und schließlich zur Entsorgung des Produkts.

Der DPP ist, schreibt die Wikipedia, Bestandteil der im März 2022 ins Leben gerufenen europäischen Öko-Design-Richtlinie. Sie legt in ihrem Anhang III die grundsätzlichen Inhalte eines DPP rechtsverbindlich fest. Er soll Produkte kennzeichnen – zum Beispiel mit einem QR-Code – und so für Transparenz sorgen. Der digitale Produktpass könnte es Plattformen ermöglichen, auf einfache Weise zuverlässige Informationen aus der gesamten Lieferkette zu sammeln und sie den Verbrauchern zu präsentieren (Rückverfolgbarkeit), schreibt die Website CE Engineering. Und weiter: Die Plattformen können die QR-Codes auch in die online präsentierten Produktbeschreibungen aufnehmen, um den Verbrauchern die Möglichkeit zu geben, verschiedene Produkte zu vergleichen.

Interessant ist auch, dass die Öko-Design-Verordnung letztlich so gut wie alle Produkte umfassen soll, die auf dem EU-Binnenmarkt erhältlich sind; Ausnahmen soll es nur noch für Lebensmittel, Futtermittel, Arzneimittel und lebende Tiere und Pflanzen geben, schreibt CE Engineering. Zu den Informationen, die dann abrufbar sein sollen, gehören Haltbarkeit, Zuverlässigkeit, Wiederverwendbarkeit, Reparierbarkeit, Aufrüstbarkeit, Recyclingfähigkeit, die Möglichkeit der Wiederaufarbeitung, des Recyclings und der Rückgewinnung von Materialien – und Ressourcennutzung und Ressourceneffizienz. Der Ursprung aller Produkte, also die herstellende Firma und der oder die Produktionsstandort(e) soll ebenfalls klar ersichtlich sein.

Aber immer noch sind das nur Pläne. Wie weit ist deren Umsetzung?

Zu Beginn eines Videos der Deutschen Bundesstiftung Umwelt (wie immer zwecks Datensparsamkeit über den Proxy Invidious verlinkt) spricht Nina Hagemann von der Fraunhofer-Einrichtung Forschungsfertigung Batteriezelle (FFB) über den DPP und den Batteriepass, der als erste Umsetzung geplant ist. Verpflichtend ist er ab dem 18. Februar 2027; momentan wird die Infrastruktur gebaut, sagt Hagemann. Die FFB plant gerade in Münster eine »Giga-Factory«, die 2026/2027 fertig werden soll und in der Unternehmen ihre Batterieproduktion erforschen können.

Also auch hier wieder: »wird«, »plant«, »soll«. Aber immerhin wird das Fraunhofer-Projekt mit 680 Millionen Euro gefördert. Das ist ja nicht wenig und zeigt schon mehr als nur guten Willen.

Kurz zusammengefasst kann man vielleicht sagen: Der DPP ist ein ehrgeiziges Projekt, dessen erste Zündstufe 2027 mit dem Batteriepass erreicht sein soll. Dafür ist die Planung recht fortgeschritten – aber letztlich bleibt abzuwarten, wie die konkrete Umsetzung denn tatsächlich voranschreitet.

Interessant ist das Thema aber allemal; wir bleiben dran und werden wieder berichten, wenn sich etwas tut.

noyb vs Meta

+

Vielen wird sie aufgefallen sein, viele werden sie einfach weggeklickt haben – aber eine neue Benachrichtigung in Instagram hat es in sich: Meta, der Mutterkonzern von Facebook, WhatsApp, Giphy, Oculus VR und eben auch auch Instagram, schrieb darin: Ab Mitte Juni solle alles, was User*innen posten, als Trainingsmaterial für die firmeneigene KI, »Meta AI«, verwendet werden. Weiter hieß es, man könne dieser Verwendung widersprechen, und wenn Meta den Widerspruch akzeptiere, könnten die Posts vom Training ausgenommen werden. Und schließlich: Eine ganze Reihe von Daten würden trotz eines akzeptierten Widerspruchs zum Füttern der KI benutzt werden. Die österreichische Datenschutz-NGO noyb legt dagegen in mindestens elf Ländern Beschwerde vor Gericht ein.

Anstatt User:innen um ihre Zustimmung zu bitten (Opt-in), behauptet Meta, ein berechtigtes Interesse zu haben, das über dem Recht auf Datenschutz stehe, schreiben noyb in einem aktuellen Beitrag auf ihrer Website. Mit dieser neuerlichen Anpassung der Datenschutzerklärung bereite Meta sich darauf vor, alle öffentlichen und nicht-öffentlichen Nutzer:innendaten (die es seit 2007 gesammelt hat) für eine undefinierte KI-Technologie zu verwenden. (…) Zu welchem Zweck die KI-Technologie verwendet werden soll, bleibt dabei unklar, was nicht mit den Anforderungen der DSGVO vereinbar ist. Metas Datenschutzrichtlinie würde theoretisch jeden beliebigen Verwendungszweck erlauben.

Was daran besonders bedenklich ist: Meta wählt nicht die laut der Datenschutz-Grundverordnung eigentlich notwendige Option des »Opt-in«, sondern behauptet, die Datensammelei und -Auswertung sei auf »berechtigtem Interesse« begründet – eine schwammige Formulierung in der DSGVO. Damit fühlt sich der US-Tech-Gigant berechtigt, das »Opt-out«-Verfahren anzuwenden, bei dem Nutzer*innen automatisch zustimmen, wenn sie nicht explizit ablehen.

Das findet noyb äußert besorgniserregend, weil es um die persönlichen Daten von etwa 4 Milliarden Menschen geht. Die Änderung betrifft nämlich nicht allein die Instagram-Nutzer, sondern mindestens auch die von Facebook.

Wer von den Datenschützern noch nicht gehört hat: 2017 gegründet, konzentriert sich noyb auf Datenschutzverletzungen von privaten Unternehmen, wie es in der Wikipedia heißt. Die NGO finanziert sich über Spenden und öffentliche und private Fördermittel (…) Einer ihrer Gründer und wohl prominentester Aktivist ist der öster­reichische Jurist und Autor Max Schrems. Er ist schon mehrfach mit Erfolg gegen Konzerne wie Meta/Facebook vor Gericht gezogen; 2015 kippte er das geplante Safe-Harbor-Abkommen zum Datenaustausch zwischen der EU und den USA, 2020 dessen Nachfolger Privacy Shield, klagte 2022 erfolgreich gegen die Dating-App Grindr wegen illegaler Weitergabe von Nutzerdaten, und zusammen mit noyb reichte er zum Beispiel 2021 gleich 422 Beschwerden gegen Unternehmen ein, die irreführende Cookie-Banner auf ihrer Website verwenden.

Auch gegen Medienhäuser wie SPIEGEL.de, Zeit.de, heise.de, FAZ.net, derStandard.at, krone.at und t-online.de legten Schrems und noyb 2021 Beschwerde wegen deren »PUR-Abos« ein: Nutzer:innen können nicht (wie in der DSGVO vorgesehen) frei entscheiden, ob sie einwilligen, sondern müssen ein Abo abschließen, wenn sie keine Einwilligung geben wollen.

Nicht unwahrscheinlich also, dass der Datenjurist und seine Mitstreiter*innen auch in diesem Fall Erfolg haben werden – zumal sie diesmal auch komplette Staaten auf ihrer Seite haben. Vor zwei Tagen hat die norwegische Datenschutzbehörde bereits einen Blogbeitrag veröffentlicht, in dem sie argumentiert, dass es zweifelhaft (tvilsomt) sei, ob Metas Ansatz rechtmäßig ist, schreiben noyb. Wer Norwegisch versteht, kann den Blogpost hier nachlesen.

EU-Wahl – digital oder egal?

+

Wenn blinde oder sehbehinderte Menschen ihren Wahlzettel ausfüllen wollen, stoßen sie auf reichlich Probleme. Können sie Brailleschrift auf den regulären Wahlzetteln ertasten? Fehlanzeige. Wenigstens erhabene Ziffern an den Stellen, wo sie ihre Kreuze setzen sollen? Auch hier ein klares Nein. Was sie tun müssen, auch zur kommenden Europawahl: eine Papp-Schablone bestellen, mit der auch eine Audio-CD ausgeliefert wird, die die Bedienung erklärt. Wäre es nicht viel einfacher, die Wahlen könnten online durchgeführt werden, und die sogenannten ARIA-Tags könnten alle nötigen Informationen enthalten? Im Prinzip ja. Aber.

Für alle, die sich mit dem Thema noch nicht beschäftigt haben: ARIA ist ein Web-Standard, der es Blinden und Sehbehinderten ermöglicht, im Internet zu navigieren und Inhalte zu verstehen. Die Tags – die in der Bildschirm-Darstellung der Seiten nicht zu sehen sind – werden von Screenreader-Software vorgelesen. Von Programmen also, die auch den sichtbaren Text von Websites für Menschen sprechen, deren Sehfähigkeit eingeschränkt ist.

Auf dieser Website des Bundes wird recht gut erklärt, wie ARIA funktioniert und eingesetzt werden kann und sollte. Eine mit aktuellem HTML und ARIA barrierefrei gestaltete Site unterstützt sehbehinderte Menschen bei ihrer Interaktion mit den Inhalten.

Das Problem ist nur:

1999 hätte man gesagt, dass die Zukunft in der Internet-Wahl liegt, aber wir schreiben das Jahr 2024 und nicht so viele Länder wählen online, sagt Dr. David Dueñas-Cid, außerordentlicher Professor an der Kozminski Universität in Polen im Gespräch mit Euronews. Immerhin ist Estland offenbar schon seit 2005, also fast zwanzig Jahre, ganz vorn dabei, wenn es um Online-Wahlen geht. Wir haben mit der Internet-Wahl die fortschrittlichste Wahlmethode der Welt, zitiert Euronews Oliver Väärtnõu, CEO des Technologieunternehmens Cybernetica, das die estnische Software i-Voting entwickelt hat.

Vorletztes Jahr hat das Land 30 Millionen Euro in die Entwicklung und vor allem Sicherheit der staatlichen IT-Systeme ausgegeben, knapp 30 Euro pro Einwohner*in. Nicht besonders viel. Das könnte sich auch ein so reiches Land wie Deutschland leisten. Aber auf der aktuellen Seite zu Online-Wahlen auf der Website der Bundeswahlleiterin Ruth Brand steht immer noch ein Text von 2015. Darin heißt es zum Beispiel: Insbesondere die Geheimhaltung einer Online-Stimmabgabe (…) würde einen unverhältnismäßigen Aufwand erfordern und schließt die Nutzung privater PCs nach dem Stand der heutigen Technik aus.

Dem »Stand der heutigen Technik« im Jahre 2015, wohlgemerkt.

Der Verband der Internetwirtschaft e.V. (eco) hat vor gut einem Jahr in einem Podcast gefragt: Warum wählen wir nicht digital? Darin ist Robert Krimmer zu hören, der bis November 2022 Professor für E-Governance der Universität des estnischen Tartu war. Er war schon bei der Einführung der digitalen Wahlen 2005 dabei. Er erläutert, wie das E-Voting in dem baltischen Staat funktioniert, und sagt mit Blick auf Deutschland: Es muss das Gesamtsystem stimmen, dann macht es Sinn, im Zuge einer großangelegten Digitalisierung auch das E-Voting einzuführen.

Heißt: Es muss die komplette Verwaltung auf digitalen Stand gebracht werden.

Krimmer erinnert sich: Ein deutscher Innenminister, der Herr Schily, hat sich im Jahr – was war’s, 2001 – hinausgelehnt und gesagt, 2010 wird die deutsche Bundestagswahl online stattfinden (…) Selbst in der Schweiz, wo sehr viel Geld darein investiert worden ist, seit 1998 dran gearbeitet wird, ist es heute nicht komplett Realität (…) Und er wagt eine vorsichtige Prognose: Wenn Deutschland die nächsten zehn Jahre wirklich das OZG, die anderen Zugangsprobleme, die anderen Digitalisierungsprobleme in den Griff kriegt, und das geht eigentlich nur durch eine Verwaltungsreform, dann wird auch die Internetwahl möglich sein.

Wenigstens teilweise sind aber auch schon jetzt die Wahlen in Deutschland digitalisiert. München zum Beispiel hat den sogenannten »Wahlkoffer«, mit dem zumindest das Auszählen der Stimmen nicht mehr per Hand (und Auge) durchgeführt werden muss. Und Baden-Württemberg verwendet zur Stimmzählung einen Scan-Stift, erzählt Carlo Petruschke vom Consulting-Unternehmen CGI im oben schon erwähnten Podcast.

Aber der deutsche Föderalismus, der den Bundesländern weitgehend freie Hand lässt, sorgt eben auch dafür, dass jedes Land »sein eigenes Süppchen kocht«. Die Digitalisierung ist sehr unterschiedlich weit fortgeschritten, und ein bundesweiter Standard ist (noch?) in weiter Ferne.

Also werden wir wohl auch in absehbarer Zukunft weiterhin unser Kreuz auf Papier machen, entweder im Wahllokal, oder per Briefwahl.

Szenen einer Ehe

+

Sie ist die begehrteste Braut der Welt: Milliarden Menschen sind mit der Firma Microsoft verheiratet – und scheuen die Scheidung. Trotz zahlreicher Probleme. Und nicht nur Einzelpersonen: Auch ganze Regierungen und sogar überstaatliche Institutionen wie die EU können nicht vom Windows-Betriebssystem und den vielen darauf basierenden Anwendungen lassen. Obwohl sie vielfach sogar dazu verpflichtet wären.

»Das Microsoft-Dilemma – Europa als Softwarekolonie« heißt eine Dokumentation der ARD, die auch bei YouTube verfügbar ist (Link via Invidious vom Google-Tracking befreit). Eine Dreiviertelstunde, die jede*r investieren sollte.

Ausgehend vom »WannaCry«-Ransomeware-Wurm, der vom 12. Mai 2017 an hunderttausende Computer in mehr als 150 Ländern heimsuchte, beleuchtet die Doku die Gründe für die Verbreitung von Windows und Microsoft-Produkten und beschreibt die massiven Sicherheitsprobleme, die das verursacht.

Die Deutsche Bahn war damals betroffen, ebenso große globale Firmen wie FedEx, Boeing, Hitachi, Honda, Nissan oder Renault, das britische Gesundheitssystem NHS (woraufhin Krankenhäuser im Königreich auf Notbetrieb umstellen mussten), Russlands Innenministerium, Deutschlands O2, die südafrikanische Telkom, Spaniens Telefónica, die Portugal Telecom, viele Universitäten weltweit – und zahllose weitere Firmen und Einrichtungen.

Ihre Gemeinsamkeit: Sie alle verwenden Microsofts Betriebssystem – wie auch sämtliche Staaten Europas. Und hier wird’s interessant: Die EU hat nämlich qua Gesetz die Pflicht, den Bedarf an neuer Software jedesmal öffentlich auszuschreiben.

Das tut sie aber nicht. Oder besser gesagt, sie tut nur so, als ob. Ausgeschrieben wird nämlich nicht der Bedarf an neuer Betriebssystem-Software, sondern nur der Bedarf an neuer Microsoft-Software, und die EU-Behörden sind der Ansicht, dass es reicht, dass sie diesen Bedarf an mehrere Microsoft-Zwischenhändler ausschreiben. Ein anderes Wort für ein solches Vorgehen wäre zum Beispiel »Augenwischerei«.

Microsoft-Fans könnten jetzt fragen: OK; aber wo ist das Problem? Sollen sie doch die Produkte aus Redmond, Washington, benutzen. Mach ich doch auch!

Schon am Anfang der Dokumentation kommt Martin Schallbruch zu Wort, der bis 2016 IT-Direktor der Bundesregierung war. Seine große Sorge ist, dass mit der Abhängigkeit von einzelnen Herstellern auf der einen Seite und mit der Virtualisierung der gesamten IT, das heißt mit der Verlagerung von IT in die Cloud – also Serverparks, die irgendwo in der Welt stehen können – die Kontrollfähigkeit, Steuerungsfähigkeit des Staates in Hinblick auf seine eigene IT immer weiter abnimmt. Behörden könnten dann gar nicht mehr beurteilen, wie sicher ist meine IT, wie sicher sind die Daten der Bürgerinnen und und Bürger (…)

Das nämlich ist einer der entscheidenden Punkte in diesem Dilemma: Jede Bezirks-, Gemeinde-, Kreis-, Landes- und Bunderverwaltung hat die Verantwortung für die persönlichen Daten ihrer Büger*innen. Vereinfacht ausgedrückt: Wer einerseits auf die Einhaltung der DSGVO auch noch durch kleinste Einzelfirmen besteht, kann nicht selbst das Melderegister auf halboffenen Servern irgendwo in den USA ablegen.

Ein weiterer Punkt ist, wie oben am Beispiel »WannaCry« ausgeführt, das Thema Sicherheit. Microsoft ist, erstens, durch die große Verbreitung von Windows, Word, Office und Co. eines der Hauptziele von Hackern und Schadsoftware-Programmierern. Zweitens ist Microsoft ein notorischer Lieferant von Sicherheitslücken, die mal schneller, mal weniger schnell – und manchmal auch erst mit enormer Verzögerung geschlossen werden. Und drittens nutzen US-Behörden die Software auch, um gezielt Sicherheitslücken auszunutzen. Natürlich im Interesse der »nationalen Sicherheit«. »WannaCry« konnte sich nur verbreiten, weil die amerikanische NSA einen Microsoft-Exploit eintwickelt hatte, genannt EternalBlue, der ihr leider versehentlich gestohlen wurde.

Dumm gelaufen?

Nun ja, die Antwort ist ein eindeutiges »Jein«. Einerseits ist es heuchlerisch, ausschließlich den chinesischen Softwareentwicklern übergroße Nähe zum Staatsapparat vorzuwerfen. Es ist hinlänglich bekannt, dass auch US-Behörden eng mit amerikanischen Firmen zusammenarbeiten und sie zum Beispiel zur Datenherausgabe zwingen können. Und andererseits ist Microsoft halt ein Unternehmen, das proprietäre Software herstellt; Programme, deren Quellcode verschlossen ist. So können also nur Microsoft-Entwickler Microsoft-Probleme lösen.

In der Welt von FOSS (Free and Open-Source Software) liegt der Quellcode offen und kann von allen, die über genügend Wissen verfügen, geprüft und auditiert werden. Menschen, die an der Verbesserung einer Software interessiert sind, können Programmcode beisteuern – zum Beispiel auch Sicherheits-Patches.

Dem Bundesamt für Sicherheit in der Informationstechnik (BSI) reicht es jetzt auf jeden Fall: Wegen eines aktuellen Security-Desasters (bei dem Informationen von Microsoft und von deren Cloud-Kund*innen abgegriffen wurden und der Master-Key zur Cloud offensichtlich gestohlen worden war) hat die Behörde vor zwei Wochen die Herausgabe von Daten eingeklagt.

Im Gespräch mit heise online erklärte ein Sprecher des Amtes: Das BSI hat im weiteren Verlauf der fachlichen Auseinandersetzung mit Microsoft den formellen Weg der Anordnung beschritten, weil die Angaben, die das BSI zuvor in einem regulären Austausch erhalten hat, nicht zufriedenstellend waren. Mit anderen Worten: Der Konzern hat sich geweigert, Informationen herauszugeben. Und hier schließt sich der Kreis: Behörden sind durch Gesetze zu Transparenz und zur Öffentlichmachung von Informationen verpflichtet; wenn aber die Software der Behörden von einem Hersteller stammt, der sich schlicht weigert, brechen die Behörden das Gesetz, ohne etwas dagegen tun zu können.

Weiter oben steht schon ein wichtiger Begriff: Mit FOSS entstehen solche Probleme gar nicht erst. Deswegen wäre es nur einleuchtend und juristisch betrachtet sogar notwendig, dass öffentliche Stellen, ob deutsche Bundesregierung, Kreisverwaltung oder EU-Behörde, ihre IT mit Open-Source-Software betreiben.

Und hier kommt schon das nächste Problem: Da ist nicht so viel Profit zu holen. Das LiMux-Projekt, also die Umstellung der Münchner Behördenrechner auf Linux, ist nicht an Mängeln im Linux-OS gescheitert. Vielmehr kommt die oben bereits verlinkte Doku zu dem Verdacht, dass der Rückbau des zwischen 2003 und 2014 erfolgreich gelaufenen Linux-Projekts zu Windows & Co. vielleicht auch damit zu tun gehabt haben mag, dass die bayerische Hauptstadt mit dem US-Unternehmen einen Deal abgeschlossen hat: Ich baue hier einen Firmensitz und schaffe damit Arbeitsplätze, wenn du wieder meine Software nutzt.

Eine Hand wäscht die andere.

Mal sehen, wie es in Schleswig-Holstein weitergeht. Im März hatten wir berichtet, dass das nördlichste Bundesland seit 2021 an einer schrittweisen Umstellung weg von Windows, hin zu Linux arbeitet. Das Konzept steht und wird offensichtlich energisch vorangebracht. Aktuell hat sogar die österreichische Tageszeitung Der Standard einen lesenswerten Bericht zum Stand der Dinge veröffentlicht.

Und Open-Source-Software ist auch anderswo auf dem Vormarsch: Schon vor sechs Jahren schrieb das Magazin Informatik Aktuell unter der Überschrift »SAP und Linux: 5 Gründe für die Migration auf Linux«: Linux hat sich längst als Mainstream-System für das Enterprise etabliert und wird bereits als das Betriebssystem der Zukunft gehandelt. SAP will ab dem kommenden Jahr, 2025, alle alten Datenbanksysteme (Oracle, DB2 und MS SQL) durch die neue Entwicklung HANA ersetzen. Und SAP HANA läuft ausschließlich auf Linux. Deswegen riet das Magazin schon damals, nicht bis zuletzt mit der Umstellung des Systems zu warten – sondern sich rechtzeitig um externe Hilfe zu kümmern, sollte die eigene Expertise fehlen.

Es ist offensichtlich ein bisschen wie mit Solarenergie und Windkraft: Auch, wenn immer noch einige Ewiggestrige maulen, wird sich die sicherere, nachhaltigere (und in der Regel auch kostengünstigere!) Variante letztlich durchsetzen. FOSS also, Linux oder BSD. Wer’s selbst auf dem eigenen Computer schon mal ausprobieren möchte: Fast alle Linux-Distributionen bieten die Möglichkeit, eine DVD mit dem kompletten OS zu brennen (oder auf einen USB-Stick zu kopieren), mit der alles getestet werden kann. Das installierte Windows (oder MacOS) bleibt unberührt. Die Website distrowatch.com listet hunderte solcher Distributionen. Da dürfte für jede*n was dabei sein … (In der Spalte rechts außen zeigt das »Page Hit Ranking«, welches momentan die beliebtesten sind. Pro-Tips: Ubuntu ist das robusteste und verbreitetste, also findet man auch am leichtesten Hilfe, wenn mal was nicht klappen sollte, und Zorin erinnert optisch am meisten an Windows, macht den Umstieg also besonders leicht.)

Fang den Hut 2.0

+

Das »Hütchenspiel«, wie es in der Schweiz heißt, kennen zumindest ältere Leser*innen sicherlich noch: Mit etwas Geschick und viel Würfelglück müssen kegelförmige Figuren eingefangen werden. Die Chancen, dabei zu gewinnen, sind unendlich viel höher als bei einem anderen Fangspiel, das gerade eine neue Mitspielerin bekommen hat: Die Schweizer Firma Climeworks hat in Island ein neues Werk zum Einfangen von Kohlendioxid aus der Atmosphäre in Betrieb genommen.

»Mammoth« heißt die Anlage, das klingt gewaltig, nach Urzeit-Riese. 36.000 Tonnen CO₂ soll das Mammut jährlich aus der Luft saugen und anschließend unterirdisch sicher verstauen. Auch das klingt erst einmal viel – bis man sich anschaut, wie viel des Klimagases jährlich ausgestoßen wird. Im Jahre 2022 waren das laut der internationalen Energieagentur IEA mehr als 36,8 Gigatonnen, weit über 36.000 Megatonnen — also deutlich mehr als eine Million mal die Menge, die »Mammoth« sich einverleiben kann.

Andersherum ausgedrückt: Um alles jährlich ausgestoßene CO₂ unschädlich zu machen, bräuchten wir über eine Million »Mammoths«, und zwar idealerweise auf dem ganzen Planeten verteilt, denn wer will dem Gas schließĺich sagen, dass es gefälligst Richtung Island ziehen soll?

Und ja, es gibt schon ein paar wenige andere solche Werke. Der bisherige Rekordhalter ist ebenfalls von Climeworks entwickelt worden, steht ebenfalls in Island, heißt deutlich bescheidener »Orca« – und schafft deutlich bescheidenere 4.000 Tonnen pro Jahr. From vision to reality betitelte die Firma 2021 trotzdem ihre Pressemitteilung – in der übrigens auch gleich der Grund mitgeliefert wird, wieso ausgerechnet Island so geeignet für diese Anlagen ist: Wärme und Elektrizität, die für den Betrieb des Direct-Air-Capture-Prozesses benötigt werden, liefert das geothermische ›Hellisheidi‹-Kraftwerk.

Denn das ist einer der kleinen Nachteile; leider braucht das Verfahren eine Menge Energie. Außerdem ist es phänomenal teuer. Im Dezember 2023 rechnete Christian Stöcker im SPIEGEL aus: (…) 1000 Dollar sind also derzeit der reale Preis einer Tonne CO₂-Entfernung. Für alle, denen das zu abstrakt ist, verdeutlichte er weiter: Multipliziert man die jährlichen Emissionen der Menschheit mit diesen tausend Dollar, bekommt man eine Ahnung von der Aufgabe, vor der die Menschheit steht: Heraus kommt eine Summe von CO₂-Entfernungskosten von 37 Billionen Dollar im Jahr.

Das sind rund 4.625 Dollar jährlich pro Mensch. Schon für die meisten US-Amerikaner und Zentraleuropäer viel Geld, ganz zu schweigen von, sagen wir mal, Menschen in Tansania: Dort beträgt das durchschnittliche Jahreseinkommen 1.140 Euro (Stand Mai 2024). Ein Viertel dessen, was pro Person für die CO₂-Entfernung anfiele.

(Tansanier*innen verursachen übrigens so gut wie keine CO₂-Emissionen. Aber das nur am Rande.)

Nicht nur in diesem oben verlinkten Text, sondern auch einigen anderen zieht Stöcker letztlich das Fazit, dass »Direct Air Capture« (DAC) ebenso wie »Carbon Capture and Storage« (CCS) kühne Technikträume sind, die sich sehr wahrscheinlich nie erfüllen werden, aber dazu führen könnten, dass einfach das alte »Weiter so!« ausgerufen wird, frei nach dem Motto: Irgendwann kriegen wir die Treibhausgase schon wieder raus aus der Atmosphäre. Und dann wird alles gut.

Ach, und übrigens wird das eingefangene CO₂ gerne auch unter Hochdruck in die unterirdischen Speicher gepumpt, wobei zugleich weitere Ölreserven erschlossen werden können; »Enhanced Oil Recovery (EOR)« nennt sich das. Das abgesaugte CO₂ fördert so also vor allem neues CO₂ zutage, kommentiert Stöcker.

Selbst seine SPIEGEL-Kollegin Susanne Götze lässt sich in der Einleitung zu ihrem aktuellen Text zu »Mammoth« (Bezahlartikel) zur der Behauptung hinreißen: Die Klimakrise lässt sich nur aufhalten, wenn CO₂ aus der Atmosphäre entfernt wird.

Dazu noch einmal Christian Stöcker, diesmal aus einem Artikel zur Glasgower COP26 im Jahr 2021: Viel billiger und einfacher ist es, das CO₂ erst gar nicht zu produzieren.

Wo er recht hat, hat er recht.

Hör auf zu lügen, ChatGPT

+

Dass die Sprachmodelle, die etwas irreführend auch als »Künstliche Intelligenz« bezeichnet werden, zu Halluzinationen neigen und kaum zwischen Fakten und Fakenews unterscheiden können, hat sich inzwischen weitgehend herumgesprochen. Das wohl bekannteste von ihnen, ChatGPT, bekommt deswegen jetzt Ärger.

Um einen besonderen Fall von Falschinformationen geht es in dem Fall, den die Datenschutzorganisation noyb (»none of your business«, »das geht dich gar nichts an«) vor knapp zwei Wochen der österreichischen Datenschutzbehörde (DSB) vorgelegt hat: um Informationen zu Personen nämlich. Im konkreten Fall um das Geburtsdatum einer Person des öffentlichen Lebens.

Solche Informationen unterliegen in der DSGVO besonderem Schutz – den man eigentlich auch für absolut selbstverständlich halten darf: Sie müssen stimmen. Seit 1995 besagt das EU-Recht, dass persönliche Daten korrekt sein müssen. Mittlerweile ist dies in Artikel 5 DSGVO verankert, schreibt noyb in einem Artikel. Und weiter: Personen haben laut Artikel 16 DSGVO außerdem ein Recht auf Berichtigung inkorrekter Informationen – und haben die Möglichkeit, ihre Löschung zu verlangen.

All das kann ChatGPT nicht liefern, ebensowenig wie seine Erfinderin OpenAI. Dazu schreibt noyb: Das Unternehmen gibt offen zu, falsche Informationen auf ChatGPT nicht korrigieren zu können. Das Unternehmen weiß nicht einmal, woher die Daten stammen oder welche Daten ChatGPT über einzelne Personen speichert. Die Firma versucht offenbar, sich vage aus der Affäre zu ziehen, indem sie sagt, dass faktische Genauigkeit in großen Sprachmodellen ein Bereich aktiver Forschung bleibt.

Diese Formulierung könnte einen beinah schmunzeln lassen – wenn nicht die Ausgangslage so ernst wäre. Ein Unternehmen, das mit satter Unterstützung durch Microsoft und reichlich Börsenpolster (OpenAI wurde nach einem Deal im Februar mit 80 Milliarden Dollar bewertet) dafür sorgt, dass »KI« möglichst überall in unserem Alltag Einzug hält, ist nach eigener Aussage nicht imstande, seine Entwicklung zu kontrollieren. Und sichert sich weitgehend gegen Kritik ab, indem es schreibt, dass ChatGPT Antworten auf Benutzeranfragen generiert, indem es die nächstwahrscheinlichsten Wörter vorhersagt, die als Antwort auf die jeweilige Frage vorkommen könnten – nicht, dass irgendjemand auf die Idee kommen könnte, der Chatbot könnte etwa korrekte Antworten geben.

Bleibt abzuwarten, was das Ergebnis der Beschwerde von noyb sein wird. Immerhin ist der Schutz der Persönlichkeit und damit auch der Korrektheit persönlicher Daten keine Kann-Bestimmung. Sondern, siehe oben, in der DSGVO fest verankert. Kein Unternehmen kann sich einfach weigern, persönliche Informationen zu korrigieren oder zu löschen. Auch Microsofts Ziehkind OpenAI steht nicht über dem Gesetz.

Kopenhagens S-Bahn auf Autopilot

+

Es ist ja wahr, teilweise sieht es momentan mit der deutschen Wirtschaft nicht ganz so gut aus. Aber es gibt auch immer wieder Erfolgsmeldungen. So wie diese zum Beispiel: In neun Jahren wird Siemens Mobility die S-Bahn von Dänemarks Hauptstadt komplett automatisiert haben.

In ihrer Pressemitteilung schreibt die Firma, sie werde das gesamte 170 Kilometer lange S-Bahn-Netzwerk in Kopenhagen auf die höchste Automatisierungsstufe (GoA4) hochrüsten, um bereits mit der ersten Projektphase im Jahr 2030 einen fahrerlosen Zugbetrieb zu ermöglichen. Das Gesamtvolumen des Auftrags gibt Siemens mit 270 Millionen Euro an. Der neu geschlossene Vertrag baut auf einer schon seit 2011 existierenden Zusammenarbeit auf, bei der seinerzeit das Zugkontrollsystem CBTC eingeführt wurde, wie DER SPIEGEL berichtet: Zwischen Start und Stopp werden die Züge auf der Strecke vom Computer gesteuert, die Fahrerinnen und Fahrer übernehmen an den Stationen oder bei Bedarf unterwegs. Durch den neuen Auftrag soll der Sprung auf die höchste Automatisierungsstufe erreicht werden – komplett fahrerlos.

Die Pressemitteilung zitiert den Siemens-CEO Michael Peter mit den Worten: Dies wird das Kopenhagener Netzwerk zur weltweit größten automatischen S-Bahn machen.

Laut der Website Digitale Schiene Deutschland, betrieben von der Deutschen Bahn, wird GoA4 so definiert: Beim höchsten Automatisierungsgrad GoA4 – dem fahrerlosen Fahren – übernimmt der Zug mittels Sensorik auch die Umfeld- und Objekterkennung und benötigt ein KI-basiertes Störfallmanagement. Durch die notwendige Übermittlung von Bild- und Sensordaten an z. B. ein KI-basiertes Störfallmanagement steigen die Anforderungen an die Konnektivität noch einmal deutlich (…)

Bei S-Bahnen, die vorwiegend oberirdisch fahren, ist der vollständige Verzicht auf Fahrer*innen deutlich schwieriger; fahrerlose U-Bahnen hingegen gibt es schon seit mehr als vier Jahrzehnten, wie der stern im vergangenen Jahr berichtete: Pionier für die fahrerlose U-Bahn war vor 40 Jahren die Metro in der nordfranzösischen Großstadt Lille. Nürnberg folgte vor 15 Jahren, 2008, mit der neugebauten Linie U3. Auch in London, Paris, Vancouver, Sao Paulo, Mexiko oder Singapur, in Barcelona, Mailand oder Paris fahren automatisierte U-Bahnen, und Kopenhagen ist bei den unterirdischen Bahnen ebenfalls bereits automatisiert. Demnächst folgt Hamburg: Die neue U5 wird automatisch und ohne Fahrpersonal fahren, sagt Hochbahn-Sprecher Christoph Kreienbaum, schreibt der stern. Im September 2022 haben die Bauarbeiten begonnen und sollen laut der MOPO Ende der Dreißigerjahre beendet sein.

E-Autos laden in Sekunden

+

Zugegeben, die Überschrift der Original-Studie ist das absolute Gegenteil von Clickbait: Low-crystallinity conductive multivalence iron sulfide-embedded S-doped anode and high-surface area O-doped cathode of 3D porous N-rich graphitic carbon frameworks for high-performance sodium-ion hybrid energy storages, das macht fast schon Kopfschmerzen beim Lesen. Aber was dahintersteckt, ist brillant.

Wo sonst bei Batterien üblicherweise Lithium (₃Li) verwendet wird – ein eher schwer zu gewinnendes Alkalimetall –, haben die koreanischen Forscher in ihrer Studie Natrium (₁₁Na) eingesetzt, das eine Reihe von Vorteilen hat. Zum Beispiel ist es etwa 500-mal häufiger als Lithium und daher leichter zu gewinnen, Natrium-Ionen-Stromspeicher brauchen in der Herstellung weniger problematische Rohstoffe, und sie sind insgesamt günstiger zu produzieren.

Bisher schon in Autos eingesetzte Na-Akkus haben allerdings noch den Nachteil, dass ihre Reichweite relativ gering ist: Etwa 250 Kilometer schaffen die Modelle, die in China teilweise schon hergestellt werden, das entspricht etwa 150 Wattstunden je Kilo Akku-Gewicht, wie DER SPIEGEL in einem Artikel zu dem neuartigen Natrium-Speicher vorrechnet. Das vorgestellte koreanische Modell liegt mit 247 Wattstunden pro Kilogramm auf dem Niveau von Lithium-Ionen-Akkus.

Ultrahohe Energiedichte und schnelle Ladezeiten melden die Forscher des Korea Advanced Institute of Science and Technology (KAIST), und in einer Pressemitteilung konkretisiert das Institut: Der von dem Team entwickelte Akku verfüge über eine Schnellaufladungskapazität von nur wenigen Sekunden, was dann sogar den üblichen Tankstop von Benzinern weit übertrifft.

Für alle, die an der Stromzapfsäule ein wenig mehr Geduld haben, dafür aber weite Strecken schaffen wollen oder müssen, gibt es ebenfalls erfreuliche Nachrichten: Auf der Messe »Auto China« wurde jetzt eine neue Batterie mit einer Reichweite von mehr als 1000 Kilometern vorgestellt – die zudem ebenfalls außerordentlich schnell laden soll. Contemporary Amperex Technology Co. Limited, kurz CATL, hatte schon im August die »Shenxing« genannte Baterie angekündigt, die bis zu 700 Kilometer weit kommen sollte; kein Dreivierteljahr später nun also die »Shenxing Plus«, die in nur zehn Minuten Energie für 600 Kilometer Reichweite nachladen soll, wie es in dem Artikel heißt.

Natürlich forschen auch deutsche Entwickler und Unternehmen in diesem Bereich – gerade eine Woche alt ist eine SPIEGEL-Meldung: Der Nutzfahrzeughersteller Daimler Truck habe nach eigenen Angaben beim schnellen Laden von E-Lkw eine Schallmauer durchbrochen, heißt es darin. Es sei den Entwicklern erstmals gelungen, einen Prototyp des batterieelektrischen Fernverkehr-Lkw eActros 600 an einer Ladesäule mit einer Leistung von einem Megawatt (1000 Kilowatt) zu laden, was zugleich kurze Ladezeiten und große Reichweiten bedeutet.

Rekord in Sachsen

+

Spätestens, seit der Holland-Import Rudi Carrell mit »Wann wird’s mal wieder richtig Sommer« vor genau 50 Jahren einen Hit landete, hat Deutschland den Ruf, von Sonnenstrahlen nicht gerade verwöhnt zu werden. Deswegen zieht’s die Deutschen auch schon mindestens genauso lange zum Urlauben in den Süden, erst nach Italien, und dann vor allem nach Spanien. Wer also bei der Frage: »Wo steht die größte Sonnenenergie-Anlage Europas?« erstmal auf »irgendwo in der spanischen Extremadura« kommt, hat nicht völlig unrecht – aber tatsächlich lautet die richtige Antwort: in der Nähe von Leipzig.

Es ist wahr, seit August 2022 wird zwischen Torrecillas de la Tiesta und Aldeacentenera, zwei kleinen Dörfern im Herzen der Extremadura, also im Südwesten Spaniens, Europas seinerzeit größter Solarpark »Francisco Pizarro« betrieben. 590 Megawatt leistet er, gefolgt von der – ebenfalls im Südwesten Spaniens gelegenen – Anlage »Núñez de Balboa«, die 500 MW liefert. Aber seit Ende März werden diese beiden von einem Solarpark im sächsischen Witznitz abgelöst: Über der ehemaligen Braunkohlemine Witznitz II werden seitdem 650 MW Solarstrom produziert.

Die Anlage wird, so hat die Website World-Energy ausgerechnet, jährlich 250 000 Tonnen CO₂-Emissionen einsparen.

»Fun-Fact« am Rande: Größter Abnehmer mit geplanten 600 MW ist Shell Energy Europe. Der Konzern will nach eigenen Angaben mit dem Solarstrom aus Sachsen sein Portfolio an kohlenstoffarmer Energie ausbauen, um bis 2050 profitabel zu einem Netto-Null-Emissions-Energiegeschäft übergehen zu können, schreibt der mdr. Computergigant Microsoft wiederum kauft Shell mehr als die Hälfte davon (323 MW) ab, wie der Ölkonzern in einer Pressemitteilung schreibt, um seine Verpflichtung zu erfüllen, bis 2025 zu 100 % mit erneuerbarer Energie versorgt zu werden.

Übrigens: So schön und erfreulich (und dringend notwendig!) es auch ist, dass der Wettbewerb um Europas größtes Solarkraftwerk immer wieder neu befeuert wird — globale Unternehmen können da nur milde schmunzeln. Der (Stand August ’23) weltweit größte Solarpark »Bhadla Solar Park« befindet sich in Indien und liefert 2 245 MW. Der »Golmud Solar Park« in China steht mit 2 200 MW auf Platz zwei, gefolgt vom ebenfalls indischen »Pavagada Solar Park« (2 050 MW), Ägyptens »Benban Solar Park« (1 650 MW) und dem »Mohammed bin Rashid Al Maktoum Solar Park« in den Vereinigten Arabischen Emiraten, der 1 630 MW ins Netz speist (Quelle: enery.energy).

Künstler*innen gegen KI

+

Die Älteren werden sich vielleicht noch erinnern: Es gab mal eine Zeit, im vergangenen Jahrhundert, als der Einsatz von Maschinen, Computern und Software eine leuchtende Zukunft versprach. Maschinen würden schon bald all die unliebsamen, unangenehmen, langweiligen und gefährlichen Jobs übernehmen. Menschen könnten sich dann ganz und gar sozialen, geistigen und kreativen Tätigkeiten widmen. Nun, ganz so ist es dann ja doch nicht gekommen… Aber es regt sich immer mehr Widerstand.

Wir hatten schon Anfang des vergangenen Jahres berichtet, wie die Verwendung von KI in der Welt der Künste auf Protest stößt; die Verletzung des Urheberrechts war damals einer der wesentlichen Kritikpunkte (und Begründung für diverse Gerichtsprozesse). Die aktuelle Kritik, die über zweihundert Kreative aus der Musikbranche vor gut einer Woche im Magazin Variety veröffentlichten, hat (zumindest erstmal) keine juristischen Konsequenzen. Und sie zielt auch in eine andere Richtung: Sie wendet sich an KI-Entwickler, Technolo­gie-Unternehmen und digitale Musikdienste und fordert diese auf, die Verletzung der Rechte und die Entwertung von menschlichen Künstler*innen durch KI zu beenden.

»Entwertung« ist hier auch durchaus wörtlich, also monetär gemeint.

Die Liste der Beteiligten, die von der Artist Rights Alliance zusammengebracht wurden, reicht von globalen Stars bis zu Indie-Rockern, von Pop über Soul und Rap bis Hardrock; mit dabei sind zum Beispiel Billie Eilish, Kim Petras, Nicki Minaj, Greta Van Fleet, Stevie Wonder, Katy Perry, Jon Bon Jovi, die Nachlassverwalter von Bob Marley und Frank Sinatra, Norah Jones, Pearl Jam, R.E.M. und viele andere.

Und wie das Zitat oben schon zeigt, geht es ihnen vor allem darum, den potentiell existenzvernichtenden Einsatz der neuen Technologien zu verhindern: Wenn sie verantwortunglos verwendet wird, stellt KI eine enorme Bedrohung für unsere Möglichkeiten dar, unsere Privatsphäre und Identität, unsere Musik und unseren Lebensunterhalt zu schützen. Einige der größten und mächtigsten Firmen benutzen unsere Arbeit, um KI-Modelle zu trainieren. Diese Bestrebungen zielen direkt darauf, die Werke menschlicher Künstler*innen zu ersetzen durch gewaltige Mengen an KI-erzeugten ›Klängen‹ und ›Bildern‹, die ganz grundlegend die Gesamtsumme der Vergütungen verwässern, die an Künstler*innen ausgezahlt werden. Für viele Live- und Studiomusiker*innen, Künstler*innen und Songschreiber*innen, die versuchen, über die Runden zu kommen, wäre das katastrophal.

Passend dazu hat der neben Apple und Amazon bekannteste und größe Musik-Streamingdienst Spotify kürzlich verkündet, gar keine Ausschüttungen mehr auszuzahlen an alle, deren Musik weniger als tausend Streams schafft. Gedacht ist das laut dem Unternehmen dazu, dass das Geld an diejenigen geht, die wir mit unserer Plattform unterstützen wollen: aufstrebende und professionelle Künstler, denn eine große Zahl der Spotify-Accounts sind schon heute solche, die – sozusagen im Minutentakt – neue, KI-generierte »Pseudo-Musik« hochladen und damit den Dienst überschwemmen.

In sofern klingt die neue Regelung theoretisch erstmal gut – führt aber logischerweise dazu, dass kleine Indie-Bands und Solist*innen, deren Werke nicht so häufig gestreamt werden wie die großer Stars, ebenfalls leer ausgehen. Verständlicherweise alarmierend sei die neue Policy (die seit diesem Monat nun auch tatsächlich in Kraft ist) für Indie-Musiker*innen, schrieb der Rolling Stone daher schon im vergangenen November, die besorgt sind, dass ihre ohnehin schon kleine Scheibe vom Streaming-Kuchen noch weiter schrumpfen wird.

Von daher zielt der neue Vorstoß der Musiker in eine deutlich richtigere Richtung: gar nicht erst zuzulassen, dass KI in großem Umfang »Kunst« generiert und »kreativ« tätig ist. Das gilt natürlich im selben Maß auch für die Arbeit anderer Kreativer, von Maler*innen, Grafiker*innen, Fotograf*innen, Filmemacher*innen und Schauspieler*innen über Drehbuchautor*innen, Texter*innen, Dolmetscher*innen, Schriftsteller*innen und Journalist*innen bis zu Mathematiker*innen und Programmierer*innen. All ihre Berufe stehen direkt in der Schusslinie generativer KI. Der große Denkfehler, oder besser gesagt: die Kurzsichtigkeit der aufs Geldsparen orientierten Unternehmen, die KI einsetzen, ist nur: Der Begriff »Künstliche Intelligenz« ist irreführend. Nichts an generativen Algorithmen ist tatsächlich intelligent, ebensowenig kreativ. Die »Leistung« solcher Systeme besteht ausschließlich in der Rekombination von schon Dagewesenem (eben der illegal und auf urheberrechtsverletzende Weise gewonnenen Trainingsdaten).

Je mehr Pseudo-Kunst und Pseudo-Inhalte also von Maschinen erzeugt und verbreitet werden, desto kleiner wird die Menge an tatsächlichen, genuinen Schöpfungen, die zu weiteren Traningszwecken herangezogen werden könnten. Es wird – womöglich schon bald – de Zeitpunkt kommen, an dem generative KI nur noch mit den Daten generativer KI gespeist werden kann; in gewisser Weise eine moderne Form von Inzucht – »Daten-Inzucht« sozusagen. Dazu schrieb das Magazin t3n schon im vergangenen Juli: Je mehr KI-generierte Inhalte es gibt, desto wahrscheinlicher ist es, dass die Modelle mit ihren eigenen generierten Daten trainiert werden. Genau das sollte aber vermieden werden (…) Wissenschaftler haben für dieses Phänomen den Begriff Modellkollaps geprägt; er beschreibt ein Phänomen, bei dem die Modelle die Realität falsch wahrnehmen, weil sie realitätsfremde Daten von den vorherigen Generationen der KI erhalten.

Ein Fazit könnte also sein: KI ja – aber nur dort, wo sie nicht kreativ schöpferisch zu sein vorgibt, sondern das tut, was sie am besten kann: große Datenmengen analysieren, verknüpfen und auswerten. In der Wissenschaft zum Beispiel, bei der Klimaforschung, der Vorhersage von Epi- oder Pandemien, der Entwicklung neuer Medikamente, der Kosmologie.

Monopoly im echten Leben

+

Eigentlich geht’s heute um Telekom und Bahn, aber ein kleiner Vorab-Exkurs sei gestattet: Vermutlich kennen fast alle das Spiel, in dem gewinnt, wer am meisten Reich- und Eigentümer ansammelt. Häuser und Hotels bauen und ganze Straßen kaufen, aber auch Bahnhöfe und Versorgungswerke – ganz wie im richtigen Leben (mal abgesehen davon, dass sich die allerwenigsten den Kauf einer ganzen Straße leisten können). Was kaum jemand weiß: Monopoly war ursprünglich die Erfindung einer feministischen Autorin.

Elizabeth J. »Lizzie« Magie reichte am 23. März 1903 beim US-Patentamt den Antrag auf ein Patent für ihr Spiel »The Landlord’s Game« ein, das ihr unter der Nummer 748626 am 5. Januar 1904 zugesprochen wurde. Sie wird mit den Worten zitiert: Ich hoffe, dass Männer und Frauen sehr schnell begreifen, dass ihre Armut daher kommt, dass Carnegie und Rockefeller mehr Geld haben, als sie ausgeben können. Andrew Carnegie war Stahl-Unternehmer, John D. Rockefeller Gründer des heutigen US-Ölkonzerns ExxonMobil.

In einer Version der Geschichte verkaufte sie das Patent später an einen arbeitlosen Mann namens Charles Darrow, der es mit großem Gewinn an die Spielefirma Parker Brothers weiterveräußerte. Die englischsprachige Wikipedia erzählt eine etwas andere Geschichte; letztlich aber bleibt die Tatsache, dass Monopoly eigentlich als Kapitalismuskritik erdacht war und in einer 180°-Wendung zum Trainingslager junger Kapitalisten in spe wurde.

Denn Monopolbildung, also die Anhäufung von (Firmen-)Besitz und Macht, liegt auch der aktuellen, neokapitalistischen Variante des Kapitalismus zugrunde.

Ein Beispiel ist das deutsche Kommunikationsnetz.

Am 11.10.2021 veröffentlichte die Bundesnetzagentur – die fürs Management der öffentlichen Kommunikations-Infrastruktur zuständig ist – einen Entscheidungsentwurf zum Thema »letzte Meile«, also der Verbindung zwischen den Netzen und dem Hausanschluss. Der Agenturpräsident Jochen Homann jubelte damals: Die Bundesnetzagentur stellt Weichen für einen beschleunigten Glasfaserausbau in Deutschland. Denn die Tatsache, so seine Argumentation, dass der Zugang zum Telekom-Glasfasernetz nicht im Voraus reguliert werde, sei ein großer Schritt und für die Telekom das Signal, zügig ihr Glasfasernetz auszubauen.

Hat sie das getan? Schauen wir doch mal, wie es heute aussieht, fast zweieinhalb Jahre später.

Der Ausbau des Glasfasernetzes geht in Deutschland trotz hoher Fördersummen nur schleppend voran, schrieb die Tagesschau vor etwa einem Jahr auf ihrer Website. Wettbewerber monierten, so heißt es weiter, die Telekom bremse durch ›strategische Manöver‹ den Glasfaserausbau aus und gefährde damit die Breitband-Ziele der Bundesregierung. Und auch vor gut vier Monaten schrieb die Frankfurter Rundschau: Die Konkurrenz wirft dem Branchenprimus Telekom vor, den Wettbewerb zu behindern. Und: Das Ziel der Bundesregierung ließe sich wohl nicht mehr erreichen, heißt es in der Branche unter vorgehaltener Hand. Jenes Ziel, das die Regierung im Juli 2022 formulierte, lautet: Bis zum Jahr 2030 wollen wir Glasfaser bis ins Haus und den neuesten Mobilfunkstandard überall dort, wo Menschen leben, arbeiten oder unterwegs sind.

Fairerweise sollte man vielleicht dazusagen, dass die Telekom-Konkurrenten (…) nach wirtschaftlichen Kriterien [entscheiden], welche Gebiete sie mit Glasfaser ausbauen – also dort, wo sich die damit verbundenen Kosten für sie anhand der zu erwartenden Einnahmen rechnen, wie ein Report für Baden-Württemberg konstatiert. Die Lage wird in anderen Bundesländern wohl besser, aber auch längst nicht ideal sein. Immerhin lag Deutschland laut Südwest Presse im letzten November EU-weit noch auf einem traurigen 17. Platz beim Breitband-Internet und sogar nur auf 18. Position beim mobilen Netz.

Weltweit gesehen ist es noch weit schlimmer: Deutschland kommt nach diesem Bericht von verivox vom Januar nicht mal unter die Top-50, sondern lediglich auf Rang 51. Im Dezember lag die durchschnittliche Download-Geschwindigkeit (Medianwert) im Festnetz bei 89,85 Megabit pro Sekunde (Mbit/s). Zum Vergleich: Unverändert auf Platz 1 liegt Singapur mit einem Durchschnittstempo bei Downloads von 270,62 Mbit/s. Dahinter folgen Hong Kong mit 266,63 Mbit/s sowie Monaco mit 264,97 Mbit/s.

Ebenso wie der Datentransport leidet offenbar auch der Personentransport unter Monopoly-Bedingungen. Isabella Domke, Sprecherin des Flix-Konzerns, der mit dem Flixtrain auch einige wenige Fernfahrten in DB-Konkurrenz anbietet, wurde im Dezember 2022 beim MDR so zitiert: (…) die Bedingungen im Schienennetz seien schwierig. Wir fahren mit Flixtrain auch in Schweden und dort sind die Rahmenbedingungen deutlich angenehmer als hier, sagt Domke. Zum Beispiel gebe es in Schweden viel günstigere Trassenpreise. In Deutschland seien die Beantragungsverfahren für die Trassen sehr langwierig und auch die sogenannten Stationsentgelte seien sehr hoch.

Bei den Regionalzügen ist zwar der Anteil konkurrierender Anbieter höher, aber auch der Geschäftsführer des Bündnisses für fairen Wettbewerb im Schienenpersonenverkehr (Mofair), Matthias Stoffregen, sagt, dass es kaum möglich sei, überregionale Flotten aufzubauen, denn die Trassenpreise seien die höchsten in ganz Europa.

Und der Schienenmonopolist kassiert auch anderweitig ab: Private Energieerzeuger beklagen sich darüber, die Deutsche Bahn verlange überhöhte Entgelte, wenn sie beispielsweise mit Stromkabeln Bahntrassen kreuzen müssen, um an einen vorgeschriebenen Netzeinspeisepunkt zu kommen, schrieb heise vor knapp einem Jahr. Mirko Moser-Abt vom Bundesverband Windenergie nennt das moderne Wegelagerei, und auch die Wirtschaftswoche berichtete seinerzeit, die Bahn verteuert offenbar den Ausbau von Erneuerbaren Energien. Besonders die Willkür beim Ansetzen der fälligen Gebühren scheint ein Stein des Anstoßes. Über 100 000 Euro wolle der Staatskonzern zum Beispiel vom Unternehmen Wittgensteingruppe für einen Netzanschluss, der bei vergleichbaren Projekten mit lediglich 4000 Euro zu Buche schlug. Und das ist kein Einzelfall: Für die Kabelverlegung zum Anschluss eines 8,5-Megawatt-Solarparks in Rheinland-Pfalz von Juwi ans Netz habe die DB zuletzt 90.000 Euro verlangt. Damit koste der Anschluss verglichen mit einem Projekt im Vorjahr zehnmal so viel, berichtet das Unternehmen.

Vielleicht sollte sich der Eigentümer des einen und größte Anteilseigner des anderen Unternehmens (richtig, das ist die Bundesrepublik) deren monopolistische Gebaren noch mal etwas genauer ansehen. Vielleicht wäre das ein guter Impuls für den vielbeschworenen »Wirtschaftsstandort Deutschland« – damit der nicht noch weiter abrutscht im internationalen Ranking.

Wie sieht’s aus, Herr Wissing?

Der »leistungsstärkste Chip der Welt«?

+

Kurz vorweg: Wer sich schon immer gefragt hat, wie der Firmenname eigentlich ausgesprochen wird – Wikipedia weiß Antwort: ɪnˈvɪdiə nämlich, und er stammt vom spanischen »La Envidia«, was »Neid« bedeutet. Und andere Chiphersteller könnten gerade tatsächlich neidisch sein, denn die Firma aus dem kalifornischen Santa Clara hat Anfang dieser Woche gemeldet, sie habe die Voraussetzung für eine neue industrielle Revolution geschaffen. Ihre neue Technologie, die sie nach dem US-Mathematiker David Blackwell benannt hat, soll vor allem fürs Training von KI eingesetzt werden.

Wir hatten kürzlich schon darüber berichtet, welche massiven umweltschädlichen Eigenschaften Künstliche Intelligenz mitbringt. Die Kalifornier versprechen Abhilfe: NVIDIA today announced its next-generation AI supercomputer, heißt es in einer Presseerklärung des Unternehmens. 11,5 Exaflops soll er schaffen, also elfeinhalb Trillionen Gleitkommaoperationen (Additionen oder Multiplikationen) pro Sekunde – das ist wohl ein bisschen außerhalb des Laienverständnisses; eine Trillion sind 1000 × 1000 × 1000 Milliarden. Pro Sekunde.

Das hat vor allem einen wesentlichen Vorteil, wie DER SPIEGEL am Dienstag schrieb: Für drei Monate Training eines KI-Chatbots, zum Beispiel ChatGPT, brauche man bisher 8000 Nvidia-Chips mit einem Stromverbrauch von 15 Megawatt, mit dem neuen »Blackwell« reduziere sich das auf 2000 Chips und nur vier Megawatt Strom.

Kein Wunder, dass große Unternehmen wie Microsoft, Google oder auch Amazon schon den »Blackwell«-Einsatz planen. In Zukunft sollen, so zitiert DER SPIEGEL den Nvidia-CEO Jensen Huang, zum Beispiel Websites nicht mehr vorgefertigt aus Speichern abgerufen, sondern von KI-Software jeweils frisch erzeugt werden, und auch Bilder aus Science-Fiction-Filmen können damit schon bald Wirklichkeit werden: Huang zeigte als Beispiel einen Einsatz von Nvidias 3D-Umgebung Omniverse auf Apples Computerbrille Vision Pro: Ein Designer des südkoreanischen Autobauers Hyundai konnte so verschiedene Farbvarianten eines Automodells in unterschiedlichen Umgebungen ansehen und sich auch virtuell ans Lenkrad setzen.

Laut einer weiteren Nividia-Pressemitteilung soll sich der Einsatz der neuen Chip-Generation auch finanziell lohnen, denn »Blackwell« ermögliche es Unternehmen, Echtzeit-GenKI auf der Basis von Trillionen Parameter umfassenden Large Language Models mit bis zu 25-facher Kosten- und Energieverbrauchs-Reduzierung zu bauen und zu betreiben.

Wer jetzt allerdings schon eine neue E-Mail an die Einkaufs-Abteilung zu schreiben beginnt, sollte noch mal kurz nachrechnen – der Anschaffungspreis hat es nämlich in sich, wie DER SPIEGEL vorgestern meldete.

Fazit: Zunächst nur wenige werden sich die neue Technologie leisten können, aber diese wenigen gehören auch zu den größten Umweltsündern und können den Impact deutlich verringern, also unterm Strich durchaus eine gute Entwicklung. Und ja auch wieder nur ein weiterer Schritt – diesmal wohl in die richtige Richtung.

P.S.: Für alle, die über genügend Englischkenntnisse (und Zeitbudget) verfügen, hier der Link zu Jensen Huangs kompletter Keynote vom vergangenen Montag; Gesamtdauer zwei Stunden und drei Minuten.

FOSS in SH

+

Nicht jede*r kann immer alle Abkürzungen parat haben, deswegen hier als Einstieg die Erklärung zur Überschrift: »FOSS« steht für »Freie Open-Source-Software«, und »SH« für »Schleswig Holstein«. Mit anderen Worten also: Der Norden setzt auf Open Source. Oder besser gesagt, die Verwaltung.

Sven Thomsen ist der CIO (Chief Information Officer, man könnte auch sagen: IT-Chef) der Landesverwaltung. Auf seiner — fortschrittlich! — Mastodon-Regierungsseite stellt er sich als »Leiter der Abteilung ›Digitalisierung und Zentrales IT-Management der Landesregierung‹ in der Staatskanzlei des Landes Schleswig-Holstein« vor. Sein Plan: das nördlichste Bundesland auf Open-Source-Software umzustellen.

Aber halt — wer erinnert sich noch? Es ist immerhin schon 15 Jahre her, dass die Stadt München den Versuch gestartet hat, FOSS in der Stadtverwaltung zu etablieren. »LiMux« nannte sich das Konzept, das allerdings nach acht Jahren den Todesstoß versetzt bekam (trotz Kostenersparnissen von rund 25 % oder 10 Millionen Euro gegenüber Windows): Ende November 2017 wurde vom Stadtrat beschlossen, das Projekt zu beenden und alle Rechner bis zum Jahr 2020 wieder auf Windows umzustellen, steht in einem Wikipedia-Artikel zum Thema. Einer der Gründe war wohl eine Fehlfunktion im Zusammenhang mit einem E-Mail-Abruf von einem Smartphone gewesen.

Zwar legte im Sommer 2020 die neue grün-rote Stadtregierung fest, ab 2021 wieder zum Open-Source-Konzept zurückzukehren, heißt es weiter in der Wikipedia. Dennoch wurde Limux 2022 auf den Arbeitsplatzrechnern durch Windows 10 und Microsoft Office ersetzt, und bis Ende 2023 soll LibreOffice von den Rechnern verschwinden.

Solche Fehler will Schleswig-Holstein von vornherein vermeiden; die Verwendung von Smartphones ist zum Beispiel mit eingepreist und Teil des Konzepts, wie die Website des Landes erläutert.

Zur Gewährleistung einer weitreichenden Interoperabilität sollen wir neue Anwendungen und Technologien mit offenen Schnittstellen und auf Basis offener Standards ausstatten, paraphrasierte Thomsen vor einem Monat in einem Vortrag beim Univention Summit 2024 aus dem schleswig-holsteinischen E-Government-Gesetz (EGovG SH). Momentan müssen in Kiel zwar noch proprietäre Microsoft-Dokumente vom Bund und aus anderen Ländern bearbeitet werden, aber Schleswig-Holstein selbst gibt nur noch offene Dokumentformate aus (wie beispielsweise .odt und .ods statt .doc und .xls).

Thomsen ist sich sicher, dass es keinen Weg zurück gibt; so werden auch Hersteller proprietärer Software-Lösungen von Kiel aufgefordert, ihre Anwendungen unter der neuen Architektur lauffähig zu machen. Und umgekehrt wird die Landesregierung zu einem Teil der Open-Source-Gemeinschaft: (…) wir haben eine Verpflichtung, nicht nur Nutzerinnen und Nutzer dieser Werkzeuge zu sein, sondern wir sind auch verpflichtet zurückzugeben. Das heißt, wenn wir eine Open-Source-Software einsetzen und sie verändern, müssen wir das Ganze wieder als Open Source veröffentlichen. (…) Ich bin gesetzlich dazu verpflichtet, ein guter Open-Source-Bürger zu sein. Und das ist ein gutes Gefühl.

Es sei an dieser Stelle empfohlen, den Vortrag ruhig in Gänze zu sehen, er ist nur 21 Minuten lang, beantwortet viele Fragen und macht vor allem auch eines: richtig Lust auf Open Source.

NOT Made in Germany, Mind You!

+

Es war einmal … nicht zu einer Zeit, als das Wünschen noch geholfen hat, und auch nicht in einem Land vor unserer Zeit, aber immerhin vor fast hundertvierzig Jahren, als die Briten einen Begriff schufen, um den wachsenden Einfluss der deutschen Wirtschaft zurückzudrängen: Sie erfanden »Made in Germany« als ein Warnzeichen. Achtung, diese Ware ist aus deutscher Produktion, nicht kaufen! Wir wissen, wohin sich das entwickelt hat — inzwischen sind die drei Wörter ein Gütesiegel für Qualität. Oder besser gesagt: waren. Gerade wandelt sich ihre Bedeutung wieder.

Im vergangenen Oktober schrieb Klaus Schweinsberg im manager magazin: Hersteller und Foren werben seit einiger Zeit damit, dass ihre Produkte German free sind, also keinerlei Bauteile aus Deutschland enthalten. Und auf der Website der Bundesakademie für Sicherheitspolitik hat Anne-Marie Descôtes, Französische Botschafterin in Deutschland, bereits im Juli 2019 darauf hingewiesen, dass Unternehmen German-Free-Rüstungsprodukte ohne deutsche Komponenten bevorzugen und damit die europäische Zusammenarbeit auf dem Gebiet der Verteidigung heute und in Zukunft [zu] gefährden.

Web.de-Mitarbeiter Michael Trampert hat im vergangenen Oktober ein Video veröffentlicht<, in dem er auf einen der vermutlich zahlreichen Gründe verweist: So setzt Airbus beispielsweise seit 2022 auf Produkte, die ohne deutsche Bauteile auskommen, um Geschäfte mit Saudi-Arabien machen zu können – einem Land, das 2018 auf die deutsche Sanktionsliste gesetzt wurde (…) Im selben Monat veröffentlichte die Deutsche Gesellschaft für Qualität einen Artikel von Benedikt Sommerhoff, der schrieb: (…) heute treiben digitale und hybride Geschäftsmodelle und Produkte der vierten industriellen Revolution, der Industrie 4.0, die Weltwirtschaft an. Darin ist Deutschland, darin ist ganz Europa, vergleichsweise schwach.

Und Markus Reimer, in der Selbstdarstellung Unternehmer, Unternehmensberater, Qualitätsauditor und Keynote-Speaker aus der Unternehmenspraxis, schrieb im November in einem lesenswerten Blogpost: Die Flüchtlingskrise, der Umgang mit dem Klimawandel, die Haltung zu Russland und China oder die Rolle in der NATO sind Themen, die das Ansehen Deutschlands im Ausland beeinflussen. Viele Menschen sehen Deutschland mittlerweile als zu arrogant, zu moralisch oder zu dominant.

Unterm Strich bleibt der Eindruck, dass viele Wirtschaftsdenker die Schwäche Deutschlands auf einige seiner sozialen Komponenten zurückführen: die hohen Lohnkosten, die Arbeitszeitverkürzung, die Bedenken beim Paktieren mit problematischen internationalen Akteuren zum Beispiel. Völlig zu recht fragt Reimer: Wollen wir wirklich auf Teufel komm raus Flughafen um Flughafen bauen, in Erinnerung an die Aussage der WTO-Generaldirektorin Ngozi Okonjo-Iweala: When we talk to China, we get an airport; when we talk to Germany, we get a lecture.

Und er fragt ebenso berechtigt: Für was stehen wir?

Wäre es nicht eine spannende Herausforderung, die deutschen Qualitäten der Gründlichkeit und Sorgfalt mit den Tugenden – denn so kann man es auch sehen! – der moralisch-ethischen Abwägung und der Vorsicht gegenüber fragwürdigen Partnern zu kombinieren? Und das nicht anderen überzustülpen versuchen, sondern als Qualitätsmerkmale herausstellen?

Es ist sicher kein Zufall, dass einer der größten Anbieter verschlüsselter Webmail in Deutschland ansässig ist. Einer der weltweit führenden Übersetzungs-Algorithmen kommt aus Köln. Und wir erinnern uns: Özlem Türeci und ihr Mann Uğur Şahin sind deutsche Mediziner, die nach langer Forschung schließlich einen der ersten mRNA-Impfstoffe liefern konnten.

Wer ein »Rat-Race« gegen China beginnt, wird nicht gewinnen können. Wer aber in Zeiten globaler Krisen mit nachhaltigen Ideen überzeugt, hat eine realistische Chance.

Umweltsünder KI

+

Vom »nächsten heißen Scheiß« ist Künstliche Intelligenz in Rekordzeit zum allgegenwärtigen Tool geworden. Keine Suchmaschine, die was auf sich hält, kommt ohne LLM-gestützte Features aus, Office-Suiten haben LLMs eingebaut, Bewerbungen und Bewerbungsablehnungen werden gleichermaßen von ChatGPT und seinen Verwandten verfasst, zahlreiche Artikel und Posts im Netz sind ohne menschliche Formulierungskünste entstanden — KI scheint unaufhaltsam. Was allem Anschein nach kaum jemand dabei berücksichtigt: Nicht nur die Herstellung der dafür nötigen Serverparks, sondern auch deren Betrieb verbrauchen unfassbare Mengen an Wasser und belasten die Umwelt auf vielfältige Weise.

Es liest sich fast wie ein lautes »Hurra«, was DER SPIEGEL heute meldet: Knapp 3,3 Milliarden Euro will Microsoft in den kommenden zwei Jahren in Deutschland investieren, um seine Rechenzentrumskapazitäten für Anwendungen im Bereich künstlicher Intelligenz (KI) und beim Cloudcomputing massiv auszubauen. Yay! Wirtschaft! Wachstum! Standortstärkung!

Der Firefox-Browser bekommt da schon etwas mehr Gegenwind: Vertrauenswürdige, unabhängige und quelloffene KI wollen die Open-Source-Entwickler schaffen – und haben dazu erst einmal sechzig Menschen entlassen. Beides zusammen sorgte für einigen Wirbel in den Sozialen Medien.

Aber auch hier wird der Umwelt-Aspekt außen vor gelassen. Dabei schrieb das Science-Magazin im vergangenen Juni zum Beispiel, dass das massive Heraufpumpen von Grundwasser die Erdpole zum Wandern gebracht hat, mit noch nicht absehbaren Folgen. Und einen nicht geringen Teil dieses Grundwassers verbrauchen Datenzentren, die dem Betrieb von KI dienen, wie die University of California in Riverside vergangenen April berichtete.

Auch und gerade Datenzentren von Microsoft, schrieb das Wissenschafts- und Technologie-Magazin Futurism im September ’23. ChatGPT ist keine Notwendigkeit für menschliches Leben, und trotzdem nehmen wir Wasser buchstäblich, um Computer zu füttern, wird darin Jake Grobe zitiert, der Organisator der Citizens for Community Improvement in Iowa. Besonderer Kritikpunkt war, dass der Konzern das Wasser auch während einer schweren Dürre entnahm.

Dabei prognostizierten die Vereinten Nationen schon kurz vor der COP26, die 2021 im schottischen Glasgow stattfand, dass bis zum Jahr 2030 die Verfügbarkeit von Frischwasser-Quellen um bis zu 40 % zurückgehen könnte. In dieser Schätzung ist offenbar noch nicht mit einberechnet, dass sich der Wert, und damit wohl grob auch die Zahl, von Datenzentren in den nächsten fünf Jahren von einer auf zwei Billionen US-Dollar verdoppeln dürfte. Deutsche »Billionen«, also zweitausend Milliarden.

In Taiwan bezahlt deswegen die Regierung bereits die Bauern, damit sie kein Getreide anbauen, um mit dem dadurch verfügbaren Wasser Chipfabriken betreiben zu können, wie aus diesem slashdot-Beitrag hervorgeht.

Ein Bild mit einem der KI-Bildgeneratoren wie Stable Diffusion zu erzeugen, braucht soviel Energie wie das vollständige Aufladen eines Handys, wie diese Studie herausfand. Und wer das nächste Mal die Versuchung verspürt, ein bisschen mit ChatGPT »herumzuspielen«, mag bedenken, dass der Bot einen halben Liter frisches Trinkwasser für 10 bis 50 Prompts verbraucht, je nach Komplexität, wie eine Studie aus dem vergangenen April ermittelte.

Vielleicht doch lieber trinken? Wasser wird knapp werden und ist es in vielen Teilen der Welt schon, wie es dieses australische Video ausführlich erläutert und begründet (tl;dr: Privatisierung!)

Können wir uns wirklich erlauben, mit dem KI-Hype diesen Mangel noch massiv zu befeuern?

Immerhin, um zum Schluss auch etwas zumindest ansatzweise Positives zu erwähnen, sind sich viele Wissenschaftler des Problems bewusst und forschen daran, berichtet die Website Science News Explores.

Dein Auto weiß, was du letzten Sommer getan hast

+

Und dein Autohersteller weiß es auch. Wenn du zum Beispiel ein Fahrzeug von Nissan gekauft hast, dann hast du sehr wahrscheinlich auch unterschrieben, dass dein Alter, deine »Rasse«, dein Herkunftsland, dein Geschlecht, deine Religionszugehörigkeit, der Inhalt deines Handy-Adressbuchs und vieles, vieles mehr dem Hersteller nicht nur bekannt sind, sondern auf deren Servern gespeichert werden. Und das ist nur Nissan.

Einen Datenschutz-Albtraum nennt die Mozilla-Organisation moderne Autos in einem Test, dessen Ergebnisse sie im vergangenen September veröffentlichte. Autos sind in puncto Datenschutz die übelste Produktkategorie, die wir je getestet haben, lautet die Überschrift. 25 Automarken wurden untersucht, und keine einzige schneidet gut ab: Jede einzelne Automarke, die wir unter die Lupe genommen haben, sammelt mehr persönliche Daten als nötig und nutzt sie aus anderen Gründen als für den reinen Betrieb Ihres Fahrzeugs oder zu Kundenservicezwecken.

Und es bleibt nicht beim Datensammeln, denn 84 % geben Ihre Daten weiter oder verkaufen sie, heißt es in der Untersuchung weiter. Plus: Die Löschung von persönlichen Daten, die laut DSGVO eigentlich jederzeit möglich sein muss (Artikel 17, »Recht auf Vergessenwerden«), erlauben nur zwei der 25 getesteten Marken. 92 % ignorieren die gesetzliche Vorgabe. Vermutlich, wie immer, mit dem »Aber-wir-sitzen-in-Irland«-Argument.

Manche Funktionen der – wie sie die Hersteller anpreisen – Computer auf Rädern mögen sicherlich ganz praktisch sein; wer zum Beispiel als Berater*in viel und lange unterwegs ist, weiß sicherlich zu schätzen, dass beim Druck auf den Serviceknopf moderner BMWs eine »echte Person« antwortet, die im Notfall auch mal ein Hotelzimmer buchen kann – denn sie hat Kreditkarten- und alle anderen Daten, die dafür nötig sind. Die Frage ist nur: Wie oft kommt so etwas im Alltag durchschnittlicher Autofahrer*innen vor?

Immerhin will der frühere Mobilgeräte-Hersteller Blackberry dazu beitragen, dass solche Daten nur zwischen Kund*innen und Autofirma ausgetauscht werden und nicht von Dritten gehackt werden können. Dazu hat sich der mittlerweile zum Anbieter von Software und mobilen Kommunikationssystemen mutierte kanadische Konzern mit der Auto-Sicherheitsfirma Upstream Security zusammengetan und liefert »IVY«, eine KI mit Cloud-Anbindung – entwickelt gemeinsam mit Amazon Web Services. Die ja auch nicht gerade für Datensparsamkeit bekannt sind.

Etwas zynisch könnte man vielleicht sagen: Okay, Hacker kommen zwar nicht rein, aber was die anderen Beteiligten alles wissen, analysieren, speichern und weiterverkaufen, ist womöglich schlimmer als jede Hackerattacke …

Bio-Elektronik

+

In den Filmen des kanadischen Regisseurs David Cronenberg, allen voran »eXistenZ«, tauchen seltsame Hybride aus Maschine und organischem Gewebe auf, an Nabelschnüre erinnernde Verbindungen zwischen Menschen und digitalen Netzwerken, und es gibt aus Biomaterial bestehende Waffen. Von solchen Visionen ist die Entwicklung moderner Elektronik zwar noch weit entfernt, aber der Forschungszweig wächst rasant, der sich mit organischen Bauteilen befasst.

Nachdem wir in der vergangenen Woche bereits über Kohlenstoff-basierte Elektronik speziell im Einsatzfeld der sogenannten »Wearables« berichtet hatten, wenden wir uns dem Thema jetzt etwas breitgefächerter zu.

An der Friedrich-Alexander-Universität Erlangen/München wird im Department Werkstoffwissenschaften an der sogenannten »organischen Elektronik« geforscht; auf der Website der Uni heißt es dazu: Organische Elektronik kann entscheidend zur Dekarbonisierung beitragen (…) Solche Bauteile könnten auch dabei unterstützen, auf seltene, teure und zum Teil toxische Rohstoffe wie Iridium, Platin oder Silber zu verzichten. (Und Silizium, das bekanntlich auch in der Beschaffung problematisch ist, weil es die wirtschaftliche Abhängigkeit von China massiv verstärkt.)

Verwendung finden sie zum Beispiel in Solarmodulen und vor allem in der OLED-Technologie, bei TV- oder Computerbildschirmen. Und da liegt vielleicht auch eines der Probleme begraben: Der Direktor des Helmholtz-Instituts Erlangen-Nürnberg, Christoph Brabec, sieht die Gefahr, dass eine ökologisch sinnvolle Technologie wie die organische Elektronik dauerhaft in eine Gerätearchitektur eingebunden wird, die insgesamt nicht nachhaltig ist. Das betreffe nicht nur Elektrogeräte, sondern beispielsweise auch organische Sensoren in Textilien, die eine extrem geringe Lebensdauer haben.

Deshalb plädieren die FAU-Forscher dafür, Verfahren zu entwickeln, die die Produktion und vor allem auch das Recycling solcher Bauteile nachhaltiger machen, bis hin zu einem Cradle-to-Cradle-Ansatz; sie haben dazu einen Fachaufsatz im nature-Magazin veröffentlicht.

Unter der Ägide des Bundesministeriums für Bildung und Forschung betreibt auch die Arbeitsgemeinschaft Photonikforschung Deutschland Projekte im Bereich der organischen Elektronik. Auf deren Website hieß es 2020: Hell leuchtende Tapeten, super flache Großbildschirme, Netzhautchips, die Blinde wieder sehen lassen, oder künstliche Augen, die den Zucker-Spiegel von Diabetes-Patienten überwachen: Was nach Science Fiction klingt, könnte durch die organische und großflächige Elektronik Realität werden.

Mit den neuen Entwicklungsschüben könnten die Bedenken, die damals geäußert wurden – Insbesondere die Effizienz und Langlebigkeit der unterschiedlichen Materialien stellen meist noch eine Herausforderung dar und erfordern weitere Forschungsanstrengungen. – nach und nach hinfällig werden. Denn auch an anderen Stellen wird zu dem Thema intensiv geforscht. Vor gut zwei Jahren kündigte die Max-Planch-Gesellschaft neue Möglichkeiten für unkonventionelle zukünftige Computer an und schrieb: Ein Wissenschaftlerteam um Paschalis Gkoupidenis, Gruppenleiter am Max-Planck-Institut für Polymerforschung, hat (…) einen Spielzeugroboter mit einem intelligenten und anpassungsfähigen elektrischen Schaltkreis ausgestattet, der aus weichen organischen Materialien besteht, ähnlich wie die biologische Materie. Mit diesem bio-inspirierten Ansatz konnten sie dem Roboter beibringen, selbstständig durch ein Labyrinth zu navigieren und sich dabei an visuellen Zeichen zu orientieren.

Hier also wird die Verwendung organischer Elektronik verknüpft mit einer – wenn auch erst einmal rudimentären – Form von Machine Learning.

Für manche Einsatzbereiche sind solche Roboter mit Sicherheit hervorragend geeignet. Dass Forscher menschliche Gehirne nachbauen, bleibt allerdings – Stand heute – weiterhin Science-Fiction …

Elektronik bald mit Bio-Siegel und Recycling-Plakette?

+

Bisher braucht es für die Herstellung von elektronischen Geräten – oder genauer gesagt, Transistoren und Mikrochips – Silizium. Gewinnung und Verarbeitung des Halbmetalls belasten die Umwelt, benötigen reichlich Energie und setzen große Mengen CO₂ frei. Und es lässt sich kaum recyceln. Aus Korea kam nun Anfang der Woche die Meldung, dass Wissenschaftler einen Weg gefunden haben, Elektronik auf der Basis von Kohlenstoff zu entwickeln.

Die Bedeutung des Themas liegt auf der Hand; neben den erwähnten Umweltbelastungen ist auch problematisch, dass Silizium inzwischen zum allergrößten Teil aus China stammt, was die wirtschaftliche Abhängigkeit auch auf dieser Ebene zementiert. Nicht nur deswegen ist das Interesse an Alternativen groß.

Schon vor knapp zehn Jahren berichtete der Deutschlandfunk: Auch aus Kohlenstoff lassen sich wohl bald Halbleiter entwickeln. Und der Bericht basierte auf Forschung, die zu dem Zeitpunkt wiederum schon zehn Jahre lang betrieben wurde. Auch die FAZ berichtete schon damals über Nanoröhrchen auf Kohlenstoff-Basis. Auf den ersten Blick scheint also die Meldung, dass koreanische Forscher erfolgreich darin waren, recycelbare, organische, flexible Elektronik herzustellen, nicht allzu überraschend. Die Bedeutung der Meldung liegt aber genau in der Kombination der Begriffe.

Aus organischen Materialien, also Kohlenstoff (im Gegensatz zum jetzt verwendeten Silizium) sollen die Bauteile bestehen, sie sollen wiederverwertbar sein – und außerdem flexibel, also formbar. Denn der anvisierte Einsatzbereich sind sogenannte »Wearables«; die Forscher nennen in ihrer Studie einige mögliche Beispiele: Elektrophysiologische Sensor-Elektroden, Tastaturen, Heizungen und Temperatursensoren, elektrochemische Transistoren und Wechselrichter.

Für den Einsatz in solchen und anderen Geräten soll die neue Methode in der Lage sein, organische Leiter, Halbleiter und Gate-Dielektrika herzustellen. Das heise-Magazin zitiert Kyoseung Sim, einer der Autoren der Studie, ihre Methode ermögliche eine effiziente Rückgewinnung und Wiederverwendung. Dadurch werde das vollständige Recycling von tragbarer organischer Elektronik erleichtert, und der Prozess stellt auch eine bahnbrechende Methode dar, die den Ansatz der Industrie für Nachhaltigkeit in der zukünftigen tragbaren Technologie revolutionieren könnte.

Manchmal ist alt zu alt

+

Anfang dieser Woche schickte die IT-Sicherheitsfirma ESET mithilfe der Deutschen Presseagentur (dpa) eine – ohne Übertreibung – alarmierende Meldung in die Computerwelt: In Deutschland gehen immer noch über 1,8 Millionen Rechner mit hoffnungslos veralteten Windows-Versionen ins Netz. Und setzen sich, ihre Nutzer und letzlich auch den Rest des Internet der Gefahr aus, gekapert zu werden. Mit möglicherweise schwerwiegenden Folgen. Viele scheuen vermutlich die Neuanschaffung – aber es gibt Abhilfe.

Zahlreiche große Magazine nahmen den dpa-Bericht in den vergangenen drei Tagen auf, darunter DER SPIEGEL, COMPUTER BILD, GIGA, t-online und DIE ZEIT.

Die wichtigsten Punkte: Rund 1,15 Millionen deutsche Computer gehen immer noch mit Windows 7 online, etwa 630 000 mit Programmversion 8 oder 8.1 – und selbst Windows XP, das vor 15 Jahren sein letztes offizielles Update erhalten hat, läuft noch auf 90 000 Geräten, die mit dem WWW verbunden sind. Thorsten Urbanski ist Sicherheitsexperte bei ESET; er wird in dem Bericht mit den Worten zitiert: Wer jetzt nicht handelt, handelt grob fahrlässig.

Denn: Selbst für die Versionen 7, 8, und 8.1 werden schon seit einem Jahr keine Sicherheitsspatches mehr ausgeliefert. Keine Schwachstelle, die seitdem gefunden wurde, wird behoben. Das sind, lehrt die Erfahrung, nicht wenige, und sie alle können von Hackern ausgenutzt werden. Noch einmal Urbanski: Eine nicht geschlossene Sicherheitslücke in Computerprogrammen kann ausreichen, um den Rechner zu kapern, alle privaten Daten zu stehlen oder das Gerät nach erfolgreicher Infektion in Botnetze einzubinden.

Diese automatisierten Zusammenschlüsse von mehreren, oft hunderten oder sogar tausenden Computern werden für verschiedenste Zwecke genutzt. Als Massenmail verschickende Zombies sind sie zumindest lästig, als Werkzeuge, um YouTube- und andere Zugriffszahlen zu erhöhen, definitiv illegal – und wenn eine gehackte Rechner-Armee mit gezielten Distributed-Denial-of-Service-Angriffen (DDoS) große Anbieter wie zum Beispiel kürzlich Amazon (AWS), Cloudflare und Google attackiert, können Millionen Nutzer (und manchmal auch das gesamte Internet ganzer Länder) davon in Mitleidenschaft gezogen werden.

Also: Weg mit allen Windows-Versionen, die älter sind als die derzeit aktuellen 10 und 11!

Und hier kommt die oben angekündigte Abhilfe: Wer den alten Rechner trotzdem gern weiterverwenden möchte, sich aber eine neue Version des Microsoft-Betriebssystems nicht leisten kann oder will, kann einen Blick auf Distrowatch werfen. Dort werden zahlreiche Versionen des quelloffenen, fast immer auch kostenlosen Linux und seiner Verwandten gelistet. Es gibt sogar einige Linux-Varianten, die in Look und Funktionalität an kommerzielle Systeme wie Windows oder macOS angelehnt sind, wie zum Beispiel Linux Lite, Zorin OS, Kubuntu (alle Windows-ähnlich) oder die an macOS erinnernden elementary OS und deepin.

Inzwischen ist die Zeit der »Nerdigkeit« von Linux vorbei. Das freie Betriebssystem ist erwachsen geworden und steht den kommerziellen in nichts nach. Es gibt auch längst zu allen Anwenderprogrammen, von Office-Paketen über Mailprogramme und Browser, professionelle Grafik- und Kreativprogramme bis zu Mediaplayern, Open-Source-Alternativen. Und: So gut wie alle Linux-Distributionen lassen sich vorher ausprobieren. Sie werden als sogenannte »Live-DVD« zum Download angeboten, mit der man den eigenen Rechner starten und, ohne etwas auf der Festplatte zu verändern, Linux gründlich testen kann.

Das Magazin IT’S FOSS stellt noch einige weitere an Windows und macOS erinnernde Varianten vor.

Nach einer meist sehr kurzen Eingewöhnungszeit werden sich viele wahrscheinlich vor allem über eines freuen, nämlich die Anschaffungs- und Lizenzkosten: jeweils 0 Euro.

Viel Spaß beim Ausprobieren!

Hallo 2024!

+

Cors Consulting wünscht allen Leser*innen ein erfolgreiches, zugleich entspanntes und vor allem gesundes neues Jahr. Bevor das alte ganz und gar in Vergessenheit gerät, schauen wir heute noch einmal kurz zurück auf das, was unsere Tech-News die vergangenen zwölf Monate über beschäftigt hat.

Zuletzt haben wir mit unserer achtteiligen Serie »Leben mit Maschinen« den Versuch unternommen, das Spannungsverhältnis zwischen menschlichen Bedürfnissen und maschinellem Fortschritt auszuloten. Wir sind dabei weit in die Vergangenheit zurückgegangen und schließlich fast schon in der Zukunft gelandet. Los ging’s am 23. Oktober mit der ersten Folge, »Von den Webern zu den Autobauern – Maschinen in der Produktion«.

Aber das Jahr hatte auch mit einer – wenn auch kleinen – Serie begonnen: »K.I. = Kein Interesse?« hieß sie (hier die erste Folge), und das Thema Künstliche Intelligenz beschäftigte uns natürlich erwartungsgemäß auch im Rest des Jahres immer mal wieder. Die Entwicklung auf diesem Gebiet geht mit Siebenmeilenstiefeln voran, das ist gleichmaßen faszinierend und, zumindest teilweise, beängstigend. Am 4., 12. und 28. April ging es darum, am 31. Mai, dann wieder am 13. Juni, indirekt auch am 4. August – und schließlich noch einmal am 27. November, im letzten Beitrag vor allem um die mitterweile schon fast perfekten Tools, um mittels Bildern, Videos und Stimmerzeugung Fake-News zu generieren.

Ein weiteres vieldiskutiertes Thema, das seinen Niederschlag auch hier gefunden hat, waren Social Media. Am 1. Februar ging es um TikTok und dessen teilweises Verbot in den USA; Twitter, das mittlerweile bekanntlich nur noch X heißt, war am 20. Februar Thema, dann noch einmal am 31. Juli. Am 15. Juli ging es um den Twitter-Konkurrenten Threads aus Mark Zuckerbergs Meta-Konzern. Und etwas allgemeiner und grundsätzlicher um den Stand der Dinge bei den sogenannten »Sozialen« Medien und ihre teils sehr asozialen Auswüchse drehte es sich am 20. März.

Datenschutz war Anfang des Jahres gleich zweimal im Fokus; am 15. Februar speziell die sogenannte »Chatkontrolle«, und gleich einen Tag später dann »Hessen Data«, ein Projekt der hessischen Polizei, das höchstrichterlich als verfassungswidrig eingestuft wurde.

Am 4. Juli haben wir uns den datenschützenden YouTube-Proxy Invidious angesehen, den Google/Alpha derzeit versucht zu blockieren, und am 15. August trieb uns der Datenschutz (oder besser: sein Fehlen) bei Closed-Source-Software wie beispielsweise Zoom um. In der News durften natürlich datensichere(re) Alternativen nicht fehlen.

Im weiteren Sinne verwandt mit dem Thema Datenschutz war auch ein Bericht darüber, ob und, wenn ja, wie es möglich ist, Smartphones ohne Android® beziehungsweise iOS® zu betreiben, der am 2. März erschien. Und gut eine Woche später berichteten wir über die aktuellen Entwicklungen rund um »Biobots«, Nano-Roboter, die in der Medizin zur Behandlung und Diagnose eingesetzt werden sollen oder im Abwasser nach Viren suchen.

Bei all den bisher genannten Themen kann vielleicht als ein ganz übergreifendes Fazit gelten: Jede Entwicklung hat ihren Preis. Und es ist Aufgabe moderner Gesellschaften, zwischen diesem Preis und dem Nutzen abzuwägen.

Und schließlich ging es auch um Nachhaltigkeit in der Technik, nämlich am 19. Mai um die geplante Obsoleszenz in Apple-Geräten, die von einem französischen Gericht gerügt wurde, und am 24. Mai um neue Forschungsergebnisse im Bereich Solarenergie.

Eins dürfte wohl feststehen: Auch in diesem noch taufrischen Jahr wird es wieder reichlich Material geben, denn unsere Zeiten sind – neben großen politischen Spannungen und sozialen, ökologischen und ökonomischen Herausforderungen – von rasanten Entwicklungen geprägt. Sowohl Soft-, als auch Hardware betreffend, mit Implikationen in so gut wie jedem Lebensbereich.

Und noch eines zum Schluss: Der besseren Übersichtlichkeit halber haben wir kürzlich Jahresarchive für die Tech-News von Cors Consulting eingerichtet. Falls jemand Bedienungsschwierigkeiten feststellen sollte, bitte eine kurze kurze E-Mail an uns. Vielen Dank!