Cors Consulting GmbH Hamburg

Ihr Erfolg ist unser Ziel!

Bramfelder Straße 123 a 22305 Hamburg +49 · 40 · 52 15 67 79

Tech-News

AWS = Auf WiederSehen

Vor ein paar Tagen ist der Domain-Name-Service (DNS) des Cloud-Anbieters Amazon Web Services (AWS) ausgefallen. In der Folge waren etliche große Firmen und Anbieter vom Internet abgeschnitten. Ungefähr zeitgleich stellte sich heraus, dass der deutsche Software-Konzern SAP zwar eigene, DSGVO-konforme Server in Deutschland betreibt – aber Microsoft-Produkte und die AWS-Cloud einsetzt, durch die vermeintlich sichere Daten dann doch in die USA abfließen. Zeit, sich die US-Cloudanbieter mal genauer anzusehen.
Weiterlesen

 

Die KI glaubt, ich bin 17

Nachdem wir in den vergangenen Monaten immer wieder gemahnt und gewarnt haben, die vielen Gründe aufgeführt, aus denen Künstliche Intelligenz mit großer Vorsicht gehandhabt werden muss (gerade heute zitiert DER SPIEGEL die Präsidentin des sicheren Messengers Signal mit den Worten: Was die KI-Konzerne gerade entwickeln, ist eine existenzielle Gefahr für die IT-Sicherheit und die Privatsphäre von uns allen), nachdem also Cors Consultings Tech-News eher KI-kritisch sind, haben wir heute mal eine gute Nachricht: Es gibt sinnvolle Einsatzbereiche für KI.
Weiterlesen

 

Klopf, klopf – Chatkontrolle!

Schon sehr bald könnte es sein, dass Teile der Bundesregierung dabei helfen, ein Ende der verschlüsselten und privaten Kommunikation einzuläuten, wie es der Verein netzpolitik.org e. V. formuliert. Am 13. und 14. Oktober treffen sich die Justiz- und Innenminister*innen der EU-Staaten, und eine Initiative aus Dänemark zielt darauf, wieder einmal die sogenannte »Chatkontrolle« auf den Weg zu bringen. Das ist nicht nur eine Gefahr für die Grundrechte auf Meinungsfreiheit und Privatsphäre, sondern auch für die IT-Sicherheit in Firmen und Behörden und von Privatpersonen.
Weiterlesen

 

Unsere Lösungen bringen Sie Ihren Zielen näher!

Unser Team

Wir sind ein junges, dynamisches Unternehmen mit zahlreichen Projekterfahrungen im In- und Ausland. Wir freuen uns darauf, Sie bei Ihren Projekten produktiv zu unterstützen.

Cors Consulting Team – Allen Simonian, Carrollin Simonian
Allen Simonian, Projektmanagement
Carrollin Simonian, SAP Solution Manager Consultant

Ihr Erfolg ist unser Ziel: Dieser Leitsatz prägt unser Denken und Arbeiten in allen Bereichen. Unsere Kunden und Geschäftspartner schätzen den zugewandten, persönlichen Kontakt, der Grundlage all unseren Handelns ist.

Allen Simonian, Projektmanagement

 

Über uns


Cors Consulting bündelt Kompetenzen im Bereich Projektmanagement, Beratung und Schulung für SAP Solution Manager. Unsere Erfahrungen basieren auf langjährigen nationalen und internationalen Projekten in den unterschiedlichsten Branchen.

Die interdisziplinäre Aufstellung ermöglicht eine effiziente und zielorientierte Lösung für Ihr Unternehmen. Somit ist Cors Consulting Ihr kompetenter Partner in den wichtigsten Geschäftsbereichen. Wichtigste Bestandteile unseres Firmencredos sind Nachhaltigkeit und Integrität.

Als Berater und Begleiter stehen wir Ihnen auch in komplizierten und zeitlich dringenden Situationen kompetent zur Seite.

 

Das Vertrauen unserer Kunden ist das größte Kompliment für unsere Leistung.

 

Wie können wir Ihnen helfen?

SAP Solution Manager

Sie benötigen Hilfe, Unterstützung oder Optimierung bei Ihrem SAP Solution Manager? Wir beraten Sie gerne!
Mehr lesen

SAP-Schulung

Halten Sie Ihre Mitarbeiter auf dem aktuellen Stand und stärken Sie so Ihr Unternehmen.
Mehr lesen

Projektmanagement

Unser Team aus Spezialisten steht Ihnen von der Beratung über die Analyse bis hin zu der Umsetzung und Begleitung Ihrer Projekte mit Rat und Tat zu Seite.
Mehr lesen

Workshops

Unsere Termin auf einen Blick – für Ihre Planungssicherheit.
Mehr lesen

Unternehmensberatung

Lassen Sie uns gemeinsam prüfen, ob Sie externe Dienstleistungen in angemessener Qualität erhalten.
Kontakt aufnehmen

Wir entwickeln zukunftsorientierte Strategien durch interdisziplinäre Beratung

Kontakt

Cors Consulting GmbH

Bramfelder Straße 123 a
D–22305 Hamburg

+49 · 40 · 52 15 67 79

+49 · 40 · 63 74 50 40

info@cors-consulting.de

Cors Group

CTC – Cors Training Center GmbH

· Staatlich anerkannter und zertifizierter Bildungsträger und Institut für Aus- und Weiterbildung


EX-MIL GmbH

· Privates Sicherheitsunternehmen – militärischer Standard


Unsere Partner:


Wie können wir Ihnen helfen?
Wir unterstützen Ihre Prozesse.

SAP Solution Manager

Egal, was bei Ihnen gerade ansteht – eine grundlegende Einführung, ein Update oder Upgrade, Konfiguration oder Customizing –, wir freuen uns, Sie bei Ihrem SAP-Solution-Manager-Projekt unterstützen zu dürfen.

Wie immer bei Cors Consulting gilt natürlich auch ganz besonders in diesem Bereich: Ihre und die Wünsche und Bedürfnisse Ihrer Mitarbeiter stehen für uns immer an erster Stelle!

Unsere SAP-Solution-Manager-Themen:

Prozess- und Qualitätsmanagement sind lebendige Vorgänge in Ihrem Unternehmen. Konzeptionelle Lösungsansätze helfen Verschwendung zu minimieren; die damit verbundene kontinuierliche Verbesserung erlaubt einen kritischen Blick auf alle laufenden Prozesse – und motiviert, sie zu optimieren.

Auf Ihre Bedürfnisse abgestimmt:
Wir halten Sie up-to-date!

SAP-Schulung

Es heute wichtiger als je zuvor, mit dem rasanten Tempo der Entwicklungen Schritt zu halten. Das heißt auch: die eigenen Mitarbeiter auf dem aktuellen Stand zu halten – und letztlich damit wiederum das eigene Unternehmen zu stärken.

Cors Consulting bietet Ihnen speziell auf Ihr Unternehmen abgestimmte Schulungen für den SAP Solution Manager. Dabei ist es unerheblich, ob Sie sich neu für die Möglichkeiten des SAP Solution Manager entscheiden, ein schon bestehendes System weiter ausbauen wollen – oder ob es darum geht, Ihre Mitarbeiter fester in den SAP-Sattel zu setzen. Unsere Trainer und Experten werden Sie dabei jederzeit gerne unterstützen.

Entscheiden Sie, was für Sie und Ihren ganz speziellen Geschäftsablauf am angenehmsten zu realisieren ist: Wir können die Schulungen vor Ort, in Ihrem Unternehmen durchführen, oder Sie nutzen die Weiterbildung via Webinar. Ganz, wie es beliebt und am besten passt.

Hier auf einen Blick:
Unsere Schulungstermine

Workshops

Unsere Schulungstermine

+++ Momentan noch TBA +++

Demnächst finden Sie hier unsere Schulungstermine.

Professionelle Projektrealisierung.
Von der Initialisierung bis zum Abschluss.

Projektmanagement

Projekte sind einmalige End-to-End-Prozesse. Aufgabe des Projektmanagements ist die Strukturierung, Planung, Überwachung und Steuerung einer einmaligen Wertschöpfungsprozesskette.

Unter dem Begriff Projektmanagement fassen wir die folgenden Bereiche zusammen:

 


Projektziele

Die Zieldefinition ist die wichtigste und zu gleich die komplizierteste Phase in einem Projekt. Mit Ihnen gemeinsam, definieren wir Ihre Projektziele, bereits in der Findungsphase.


Projektumfeld

Ein Projektumfeld ist die Umgebung, in der ein Projekt geplant, durchgeführt und bewertet wird. Jedes Projekt ist in einem vorgegebenen Umfeld fixiert und muss vor Projektstart sorgfältig betrachtet werden. Die ständige Analyse des Projektumfeldes ist unerlässlich um mögliche Chancen und/oder Risiken frühzeitig zu erkennen um entsprechend lenkend eingreifen zu können.


Stakeholder/​Stakeholdermanagement

Stakeholder sind Personen oder Personengruppen, die einen berechtigten Anspruch an einem Projekt und dessen Ergebnis haben, daran beteiligt oder betroffen sind oder sich davon subjektiv betroffen fühlen.


Risikoanalyse

Die Risikoanalyse ist ein elementarer Bestandteil im Projektmanagement und sollte permanent und über die gesamte Projektdauer stattfinden. Eine Risikoanalyse unterstützt die Identifizierung vorhandener sowie mögliche in Projektdauer aufkommende Risiken. Anhand derer können Risiken vermieden, verlagert, akzeptiert und sogar begrenzt werden. Die Risikoanalyse ist ein Frühwarnsystem mit den Risken kontrolliert werden können.


Projektorganisation und Kommunikation

Um das Projekt und dayli-business gleichzeitig gewährleisten zu können sollte optimalerweise für die Projektdauer eine -Projektorganisation eingenommen werden. Diese Organisationsform gewährleistet sowohl die Erfüllung des alltäglichen Dienstes als auch des Projekts. Die Vor-/Nachteile der unterschiedlichen Projektorganisation sind je nach Projekt und Unternehmensgröße individuell zu bestimmen.


Kommunikation

Um den Projekterfolg reibungslos und unmissverständlich zu gestalten, ist essentiell von Bedeutung, dass alle beteiligten Parteien (Stakeholder) das gleiche Verständigungsmodul nutzen. Alle Teilnehmer müssen unmissverständlich und genau vom gleichen Bild sprechen, wenn es um das Projektoberziel geht.


Phasenplanung

Für jedes Projekt muss eine Phasenplanung gewählt werden, die den Anforderungen des Projekts entspricht.


Projektstrukturplan

Der Projektstrukturplan (PSP) zeigt die grundlegende Struktur des Projektes auf. In ihm werden Teilaufgaben definiert und in Arbeitspakete unterteilt. Diese Strukturierung liefert eine gute Übersicht über das Projekt in seiner Gesamtheit, über den Projektinhalt und die Erstellung der Arbeitspakete mit eindeutiger Verantwortlichkeit.

Der Projektstrukturplan stellt die Basis aller weiteren Pläne innerhalb eines Projektes dar und wird deshalb auch als „Mutter aller Pläne“ bezeichnet. Der PSP kann nach unterschiedlichen Kriterien gegliedert werden. Jedoch wird der PSP immer in einer hierarchischen Baumstruktur aufgebaut, die aus Wurzelelement, Teilaufgaben und Arbeitspaket besteht. Die kleinste Einheit und nicht mehr teilbare Einheit innerhalb des PSP ist das Arbeitspaket.


Ablaufplanung

Als Ergebnis des Projektstrukturplanung erhält man die einzelnen Arbeitspakete (oder Vorgänge). Es ist jedoch noch nicht bekannt, in welcher Reihenfolge die Vorgänge durchzuführen sind. Dies macht die Ablaufplanung. Dazu muss die logische und zeitliche Abfolge der Projektaktivitäten ermittelt werden. Die Abhängigkeiten der einzelnen Vorgänge müssen festgestellt werden: Manche Vorgänge müssen zeitlich nacheinander durchgeführt werden, andere können parallel laufen.


Terminplanung

Für die Terminplanung bildet der Projektablaufplan die Grundlage.

Aufgaben:

  • Ermittlung und Dauer der einzelnen Vorgänge
  • Ermitteln von Projektterminen, Anfang/Ende von Vorgängen
  • Ermitteln und berechnen von Pufferzeiten
  • Ermitteln des Kritischen Pfads

Einsatzmittelplanung

Einsatzmittelplanung/Ressourcenplanung sind:

  • Personal
  • Material
  • Betriebsmittel
  • Sonstige Leistungen (z. B. externe Dienstleitungen)

Die Einsatzmittelplanung muss den für die Erstellung der Projektleistung notwendigen Bedarf ermitteln, mit den verfügbaren Kapazitäten abstimmen und eventuelle Engpässe feststellen.


Kostenplanung

Aus Bewertung der Einsatzmittel ergeben sich sowohl die Gesamtkosten des Projekts als auch die zeitliche Verteilung der Projektkosten über die Projektlaufzeit.

Warum die Kostenplanung?

  • Wirtschaftlichkeitsvergleiche, Kalkulation, Angebotskalkulation
  • Kostenüberwachung und -steuerung bei Projektdurchführung
  • Grundlage der Finanzplanung, und die Planung der Zahlungen im zeitlichen Ablauf

Unser Ziel ist es, Ihr Projekt optimal auszurichten, um Ressourcen, Zeit und Kosten im Gleichgewicht zu halten.

Impressum

Betreiberin dieser Website im Sinne des § 5 TMG
und verantwortlich für den Inhalt nach § 18 Abs. 2 MStV ist die

Cors Consulting GmbH

Bramfelder Straße 123 a
D–22305 Hamburg

Vertreten durch:
Carrollin Simonian und Allen Simonian


Registereintrag:

Eintragung im Handelsregister B betreffend Cors Consulting GmbH

Registergericht: Amtsgericht Hamburg
Registernummer: HRB 150142
Umsatzsteuer-ID: DE309044478
Steuernummer: 43/712/02299

Die Betreiberin ist nicht verpflichtet, an Streitbeilegungsverfahren vor einer Verbraucherschlichtungsstelle teilzunehmen.


Verwendete Schriften:

  1. Open Sans von Ascender Fonts (Lizenz: Apache License 2.0).
  2. Montserrat von Julieta Ulanovsky (Lizenz: SIL Open Font License Version 1.1).
  3. Font Awesome von Dave Gandy (Lizenz: Font Awesome Free License).
  4. Special Elite von Astigmatic (Lizenz: Apache License 2.0).

Alle Hintergrundbilder: Pixabay (Lizenz: Pixabay License).


Datenschutz

1. Datenschutz auf einen Blick

Allgemeine Hinweise

Die folgenden Hinweise geben einen einfachen Überblick darüber, wie wir Ihre personenbezogenen Daten erheben und verarbeiten. Personenbezogene Daten sind alle Daten, mit denen Sie persönlich identifiziert werden können. Ausführliche Informationen zum Thema Datenschutz entnehmen Sie unserer unter diesem Text aufgeführten Datenschutzerklärung.

Datenerfassung auf unserer Website

Wer ist verantwortlich für die Datenerfassung auf unserer Website?

Die Datenverarbeitung auf http://www.cors-consulting.de erfolgt durch

CORS CONSULTING GMBH
(haftungsbeschränkt)
Bramfelder Straße 123 a
D-22305 Hamburg

Wie erfassen wir Ihre Daten auf unserer Website?

Wenn Sie unsere Website (http://www.cors-consulting.de) nur nutzen, um sich zu informieren, dann verarbeiten wir nur die Daten, die zur Anzeige der Website auf dem von Ihnen verwendeten internetfähigen Gerät erforderlich sind. Das sind insbesondere:

Rechtsgrundlage für die Verarbeitung dieser Daten sind berechtigte Interessen gemäß Art. 6 Abs. 1 UAbs. 1 Buchstabe f) DSGVO, um die Darstellung der Website grundsätzlich zu ermöglichen.

Wofür nutzen wir Ihre Daten?

Beim Besuch unserer Website kann Ihr Surf-Verhalten statistisch ausgewertet werden. Die Analyse Ihres Surf-Verhaltens erfolgt anonym; das Surf-Verhalten kann nicht zu Ihnen zurückverfolgt werden.

Werden personenbezogenen Daten beim Benutzen der Website http://www.cors-consulting.de erhoben?

Beim Benutzen unserer Website werden keine personenbezogenen Daten erhoben. Außerdem verzichten wir auf eigene und Third-Party-Cookies.

Welche Rechte haben Sie bezüglich Ihrer Daten?

Sie haben jederzeit das Recht, unentgeltlich Auskunft über Herkunft, Empfänger und Zweck Ihrer gespeicherten personenbezogenen Daten zu erhalten. Sie haben außerdem ein Recht, die Berichtigung, Sperrung oder Löschung dieser Daten zu verlangen. Hierzu sowie zu weiteren Fragen zum Thema Datenschutz können Sie sich jederzeit unter der E-Mail-Adresse datenschutz@cors-consulting.de an uns wenden. Des Weiteren steht Ihnen ein Beschwerderecht bei der zuständigen Aufsichtsbehörde zu.

Matomo

Wir verwenden die Open-Source-Software Matomo zur Analyse und statistischen Auswertung der Nutzung unserer Website. Dazu werden Cookies eingesetzt; die dadurch erhaltenen Informationen über die Websitenutzung werden ausschließlich an unsere Server übertragen und in pseudonymen Nutzungsprofilen zusammengefasst. Die Daten verwenden wir zur Auswertung der Nutzung der Website. Eine Weitergabe der erfassten Daten an Dritte erfolgt nicht.

Die IP-Adressen werden anonymisiert (IPMasking), sodass eine Zuordnung zu einzelnen Nutzern nicht möglich ist.

Die Verarbeitung der Daten erfolgt auf Grundlage von Art. 6 Abs. 1 S. 1 lit. a DSGVO. Wir verfolgen damit unser berechtigtes Interesse an der Optimierung unserer Webseite für unsere Außendarstellung.

Sie können Ihre Einwilligung jederzeit widerrufen, indem Sie die Cookies in Ihrem Browser löschen oder Ihre Datenschutzeinstellungen ändern.

Außerdem bieten wir Ihnen hier die Möglichkeit, die Matomo-Datenerfassung in diesem Browser zu unterbinden:

2. Allgemeine Hinweise und Pflichtinformationen

Datenschutz

Die Cors Consulting GmbH nimmt den Schutz Ihrer persönlichen Daten sehr ernst. Wir behandeln Ihre personenbezogenen Daten vertraulich und entsprechend der gesetzlichen Datenschutzvorschriften sowie dieser Datenschutzerklärung.

Wenn Sie diese Website benutzen, werden keine personenbezogenen Daten erhoben.

Wir weisen darauf hin, dass die Datenübertragung im Internet (z. B. bei der Kommunikation per E-Mail) Sicherheitslücken aufweisen kann. Ein lückenloser Schutz der Daten vor dem Zugriff durch Dritte ist nicht möglich.

Hinweis zur verantwortlichen Stelle

Die verantwortliche Stelle für die Datenverarbeitung auf dieser Website ist:

Cors Consulting GmbH
Beratungsunternehmen
Carrollin Simonian

Bramfelder Straße 123 a
22305 Hamburg

Telefon: +49 · 40 · 52 15 67 79
E-Mail: datenschutz@cors-consulting.de

Verantwortliche Stelle ist die natürliche oder juristische Person, die allein oder gemeinsam mit anderen über die Zwecke und Mittel der Verarbeitung von personenbezogenen Daten (z. B. Namen, E-Mail-Adressen o.Ä.) entscheidet.

Widerruf Ihrer Einwilligung zur Datenverarbeitung

Viele Datenverarbeitungsvorgänge sind nur mit Ihrer ausdrücklichen Einwilligung möglich. Sie können eine bereits erteilte Einwilligung jederzeit widerrufen. Dazu reicht eine formlose Mitteilung per E-Mail an datenschutz@cors-consulting.de. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Datenverarbeitung bleibt vom Widerruf unberührt.

Beschwerderecht bei der zuständigen Aufsichtsbehörde

Im Falle datenschutzrechtlicher Verstöße steht dem Betroffenen ein Beschwerderecht bei der zuständigen Aufsichtsbehörde zu. Zuständige Aufsichtsbehörde in datenschutzrechtlichen Fragen ist der Landesdatenschutzbeauftragte des Bundeslandes, in dem unser Unternehmen seinen Sitz hat. Eine Liste der Datenschutzbeauftragten sowie deren Kontaktdaten können folgendem Link entnommen werden: https://www.bfdi.bund.de/DE/Infothek/Anschriften_Links/anschriften_links-node.html.

Recht auf Datenübertragbarkeit

Sie haben das Recht, Daten, die wir auf Grundlage Ihrer Einwilligung oder in Erfüllung eines Vertrags automatisiert verarbeiten, an sich oder an einen Dritten in einem gängigen, maschinenlesbaren Format aushändigen zu lassen. Sofern Sie die direkte Übertragung der Daten an einen anderen Verantwortlichen verlangen, erfolgt dies nur, soweit es technisch machbar ist.

SSL- bzw. TLS-Verschlüsselung

Diese Seite nutzt aus Sicherheitsgründen und zum Schutz der Übertragung vertraulicher Inhalte, wie zum Beispiel Bestellungen oder Anfragen, die Sie an uns als Seitenbetreiber senden, eine SSL-bzw. TLS-Verschlüsselung. Eine verschlüsselte Verbindung erkennen Sie daran, dass die Adresszeile des Browsers von “http://” auf “https://” wechselt, und an dem Schloss-Symbol in Ihrer Browserzeile.

Wenn die SSL- bzw. TLS-Verschlüsselung aktiviert ist, können die Daten, die Sie an uns übermitteln, nicht von Dritten mitgelesen werden.

Auskunft, Sperrung, Löschung

Sie haben im Rahmen der geltenden gesetzlichen Bestimmungen jederzeit das Recht auf unentgeltliche Auskunft über Ihre gespeicherten personenbezogenen Daten, deren Herkunft und Empfänger und den Zweck der Datenverarbeitung und ggf. ein Recht auf Berichtigung, Sperrung oder Löschung dieser Daten. Hierzu sowie zu weiteren Fragen zum Thema personenbezogene Daten können Sie sich jederzeit unter der im Impressum angegebenen Adresse an uns wenden.

Widerspruch gegen Werbe-Mails

Der Nutzung von im Rahmen der Impressumspflicht veröffentlichten Kontaktdaten zur Übersendung von nicht ausdrücklich angeforderter Werbung und Informationsmaterialien wird hiermit widersprochen. Die Betreiber der Seiten behalten sich ausdrücklich rechtliche Schritte im Falle der unverlangten Zusendung von Werbeinformationen, etwa durch Spam-E-Mails, vor.

 

 

 

Tech-News

AWS = Auf WiederSehen

+

Vor ein paar Tagen ist der Domain-Name-Service (DNS) des Cloud-Anbieters Amazon Web Services (AWS) ausgefallen. In der Folge waren etliche große Firmen und Anbieter vom Internet abgeschnitten. Ungefähr zeitgleich stellte sich heraus, dass der deutsche Software-Konzern SAP zwar eigene, DSGVO-konforme Server in Deutschland betreibt – aber Microsoft-Produkte und die AWS-Cloud einsetzt, durch die vermeintlich sichere Daten dann doch in die USA abfließen. Zeit, sich die US-Cloudanbieter mal genauer anzusehen.

Vorweg vielleicht eine kurze Antwort auf die Frage: Was ist eigentlich eine Cloud?

Das englische Wort für »Wolke« beschreibt eine Ansammlung von Computern in einem oder mehreren Rechenzentren, die auf Anforderung Daten ausliefern. Die einzelnen Rechner sind miteinander durch Software verbunden, die für die optimale Verteilung der Datenströme sorgt. Dadurch ist »die Cloud« skalierbar, kann also auf den jeweils aktuellen Bedarf reagieren. In einem Artikel vom 27.2. schrieb das Bundesamt für Sicherheit in der Informationstechnik (BSI): Besonders für Nutzerinnen und Nutzer von Smartphones und Tablets sind solche Dienste reizvoll, um auf ihren Geräten Speicherplatz zu sparen. Außerdem ermöglicht das zentrale Speichern von Dokumenten einen Zugriff auf diese Dokumente mit verschiedenen internetfähigen Geräten von beliebigen Standorten aus.

Und das Amt warnt: Allerdings birgt das zentrale Speichern auch Risiken: Sie geben Ihre Daten einem Dritten, einem Cloud-Dienste-Anbieter.

Diese Dritten sind nach wie vor in der Regel US-amerikanische IT-Giganten, allen voran die drei Marktführer Amazon mit AWS (30 %), Microsoft mit Azure (20 %) und Googles Cloud Platform GCP (13 %; Zahlen: Statista).

Dass die Konzerne ein enormes Interesse an diesem Business haben, wird an folgender Zahl deutlich: 94 Milliarden Dollar haben Firmen im ersten Quartal global für Cloud-Infrastruktur ausgegeben, meldete im Mai das IT-Newsportal CRN, eine Steigerung um 23 % gegenüber dem Vergleichszeitraum 2024.

Nochmal zurück zu AWS, Azure und GCP: 30 + 20 + 13 = 63. Oder anders gesagt: Fast zwei Drittel all dessen, was »in der Cloud« landet, landet tatsächlich bei Amazon, Microsoft oder Google. Das ist aus (mindestens) zwei Gründen problematisch: Erstens, siehe oben, all diese Konzerne sind zwar »too big to fail«, aber sie »failen« eben leider doch ab und zu. Und dann ist nicht nur die Infrastruktur eines Unternehmens, einer Stadt oder eines Landes betroffen, sondern das globale Internet. Der Ausfall hat zwar »nur« etwa drei Stunden gedauert, aber der Schaden unter anderem durch Produktivitätsausfälle von Millionen Arbeitskräften beläuft sich laut Jake Moore, Berater bei der europäischen Cybersecurity-Firma ESET auf Hunderte Millionen, potenziell sogar Milliarden Euro, berichtete DER SPIEGEL am vergangenen Donnerstag. Der Vorfall werfe die Frage neu auf, ob Europa eigene Technik braucht.

Schaut man sich, zweitens, die Betreiber der Clouds genauer an, so lautet die Antwort auf diese Frage eindeutig: Ja! Denn, siehe ebenfalls oben, die Geschäftspraktiken US-amerikanischer Unternehmen sind mit Blick auf den Datenschutz eher, sagen wir mal: suboptimal. Für das Zentrum für Digitalrechte und Demokratie schrieb der Journalist Markus Beckedahl am vergangenen Mittwoch über eine bemerkenswerte Stellungnahme der baden-württembergischen Landesregierung, in der es heißt: Das Risiko des US CLOUD Act bleibt bestehen, da die Kontrolle über die Software (…) letztlich beim US-Anbieter liegt. US-Sicherheitsbehörden könnten den Softwarelieferanten etwa anweisen, einen Datenabfluss in seine Software zu integrieren, ohne dass der Kunde darüber in Kenntnis gesetzt wird.

Worst-case-Szenario ist also, dass ein US-Unternehmen eine Hintertür in seine Software einbaut, durch die beliebig Daten abgeführt werden können – und keiner weiß es. Dabei ist »Daten« ja ein sehr weit gefasster Begriff. Das können schlimmstenfalls interne und vertrauliche Firmendokumente sein, E-Mail-Verläufe mit Strategie-Abstimmungen, Teams-Chats, die von den Mitarbeitenden für vertraulich gehalten werden (liegt ja schließlich auf einem deutschen Server, DSGVO und so!)

Das ist schon für sich genommen eine mittelschwere Katastrophe, aber wenn man sich zusätzlich die momentane US-Politik ansieht, kann einem Angst und Bange werden: In vorauseilendem Gehorsam hat zum Beispiel Google kürzlich sein Programm »Women Techmakers« beendet, mit dem das Unternehmen weibliche IT-Kräfte gefördert hat. Ein CNN-Bericht vom letzten Donnerstag erzählt, dass obendrein auch sämtliche Daten aus dem Projekt mehr oder weniger kommentarlos von den Servern gelöscht wurden. 2012 wurde »Women Techmakers« begonnen; damit sind dreizehn Jahre Forschung, Papers, Videos und andere Dokumente schlicht verschwunden. Their history is just erased, lautet die Überschrift. Oder auch: Schweizer Firmen erhalten Post von US-Botschaft, in der sie aufgefordert werden, ihre Maßnahmen für Diversität, Gleichberechtigung und Inklusion fallen zu lassen, wie der Schweizer Tages-Anzeiger im April meldete. Auch deutsche Firmen ziehen mit, schrieb das Manager Magazin sogar schon im Februar.

Heißt im Klartext: Die Trump-Administration will ihre Politik auch ins Ausland exportieren. Und kann das auch perfekt durchsetzen, wenn sie sogar Firmeninterna mitlesen kann. Die Maßnahmen werden sich mittelfristig sehr wahrscheinlich nicht allein auf Diversität und alles, was MAGA für »woke« hält, beschränken.

Wie wäre es, diesem Albtraum zu entkommen und eine eigene Infrastruktur aufzubauen? Es gäbe da eine deutsche Alternative, nämlich die freie Open-Source-Software Nextcloud.

Just sayin’.

Es gibt andere Optionen für Cloud-Lösungen deutscher Anbieter; IONOS-Manager Thomas Groß zum Beispiel beschäftigte sich in seiner Keynote beim Deutschen IT-Security Kongress (DITSK) am 25. September 2025 in Osnabrück mit dem Thema: Daten in der Cloud – ausgelagert oder ausgeliefert? Und hier noch eine schon etwas ältere (2022) Liste von datenschutzfreundlichen Cloud-Anbietern auf gofoss.net.

Und ein weiteres kleines P.S.: Für Privatanwender*innen hat das BSI im Februar einige Tips zum Umgang mit Clouds auf einer eigenen Seite zum Thema zusammengefasst und stellt eine Broschüre als PDF-Download zur Verfügung. Das Amt empfiehlt vor allem Handynutzer*innen große Vorsicht, denn: Ein besonderes Risiko stellt in vielen Fällen der Zugang via Smartphone dar, zum Beispiel weil möglicherweise auch Schadprogramme auf dem Smartphone leichten Zugriff auf die Daten in der Cloud haben. Und: Wenn das Smartphone durch Verlust oder Diebstahl in falsche Hände gerät, sind die Cloud-Daten nur so sicher, wie der Zugriff auf das Smartphone geschützt ist.

Die KI glaubt, ich bin 17

+

Nachdem wir in den vergangenen Monaten immer wieder gemahnt und gewarnt haben, die vielen Gründe aufgeführt, aus denen Künstliche Intelligenz mit großer Vorsicht gehandhabt werden muss (gerade heute zitiert DER SPIEGEL die Präsidentin des sicheren Messengers Signal mit den Worten: Was die KI-Konzerne gerade entwickeln, ist eine existenzielle Gefahr für die IT-Sicherheit und die Privatsphäre von uns allen), nachdem also Cors Consultings Tech-News eher KI-kritisch sind, haben wir heute mal eine gute Nachricht: Es gibt sinnvolle Einsatzbereiche für KI.

Zumindest dachten wir das.

Aber von vorn.

Ein immer wichtiger werdendes Thema im Internet ist die Zugangskontrolle. Im Juli schrieb The Atlantic zum Beispiel: Eine neue Ära der Internet-Regulierung steht bevor. Wer einigermaßen Englisch versteht, sollte sich da ruhig mal einlesen, denn es geht um den feinen Unterschied zwischen Meinungsfreiheit und Freiheit der Rede einerseits (in den USA mit dem First Amendment in der Verfassung verankert) und andererseits dem Schutz Minderjähriger vor zum Beispiel pornographischem Material. Ähnliches war ja gerade erst Thema bei dem fehlgeschlagenen Versuch, eine EU-weite »Chatkontrolle« einzuführen, wobei in dem Fall eher die Privatsphäre zu schützen war.

Wie aber macht man das – im Internet zuverlässig das Alter der Website-User bestimmen? Was im analogen Leben recht einfach ist – zeich ma dein’ Ausweis, Digger! –, wird im digitalen Raum schnell zum Datenschutz-Albtraum. Den Personalausweis oder Führerschein einscannen und hochladen? Und was passiert dann damit auf dem Server? Dasselbe gilt, wenn eine Kreditkarte vor die Kamera gehalten wird. Wo liegen die Dokumente, wie gut sind sie vor Zugriffen geschützt? Und letztlich ist kein System wirklich unhackbar. Wer schon mal Opfer eines Identitätsdiebstahls geworden ist, weiß, welche gravierenden – und schwer zu behebenden – Folgen das haben kann.

Deswegen schrieb Sebastian Meineck schon im Februar 2024 in einem lesenswerten Artikel für netzpolitik.org: Es gibt keine Technologie, die das Alter von Nutzer*innen verlässlich kontrollieren kann, ohne ihre Grundrechte zu verletzen. Grundrechte aller Nutzer*innen, wie Privatsphäre, Informationsfreiheit und Teilhabe.

Aber, und jetzt kommen wir zum Kernthema dieses Beitrags, kann das nicht auch KI übernehmen? Weniger invasiv, weniger datenschutzrechtlich bedenklich?

Um’s mit dem Kaiser zu sagen: Schau’ ma mal.

Vor zweieinhalb Monaten schrieb Oliver Nickel für Golem, dass YouTube an der breiten Einführung von KI zur Alterskontrolle arbeite. YouTubes (und Googles) Mutterkonzern Alphabet entwickle ein KI-System, das diverse Verhaltensmuster der User analysiert und dadurch einschätzen soll, ob eine Person volljährig ist oder nicht.

What say the users, you ask? Nun, einen Monat später schrieb Clare Duffy für CNN: Manche User sind bereits verärgert darüber, von der Technologie unkorrekt markiert worden zu sein, und Datenschutzexperten haben Bedenken geäußert, dass Erwachsene sensible Daten übermitteln müssen, um ihr Alter zu verifizieren.

Es ist nämlich so: KI macht nicht nur sonst überall Fehler, sondern auch hier. Und dann gibt es nur noch die Möglichkeit, wie beschrieben mittels Ausweis, Führerschein, Kreditkarte oder einem Selfie Zugang zu bekommen. Mit letzterem, also einem Handy- oder Webcam-Foto, arbeiten manche anderen KI-System gleich von Anfang an. Dumm nur, dass EDRi (European Digital Rights), der europaweite Dachverband von Organisationen für digitale Freiheitsrechte, schon im Oktober 2023 warnte: Maßnahmen, die das Alter einer Person vorhersagen oder schätzen, zum Beispiel durch ihre Interaktionen oder mittels KI-Tools, die ihre Gesichter analysieren, basieren auf massenhafter Datensammlung oder toxischen Geschäftspraktiken (z. B. Profiling). Regelmäßig beinhaltet dies das Verarbeiten sensibler biometrischer Daten von Kindern. Daher stellen solche Maßnahmen ein nicht akzeptables Risiko dar und sollten nicht eingesetzt werden.

Zwanzig Bürgerrechtsorganisationen haben das Paper unterstützt und vertreten übereinstimmend seine Positionen, darunter aus Deutschland der Chaos Computer Club (CCC) und der Verein Digitalcourage, die Schweizer Digitale Gesellschaft und die internationale Electronic Frontier Foundation (EFF). Auch Sebastian Meineck verwies darauf in einem netzpolitik-Artikel von Mitte Juli über die Position der EU-Kommission zu Alterskontrollen.

Ein Vorfall bei OnlyFans zum Beispiel, einer Plattform für Content-Creator vor allem im Bereich Sex und Pornographie, landete vor Gericht und wurde im März von Reuters gemeldet. Großbritanniens Medienwächter Ofcom hat OnlyFans mit einer Strafe von fast anderthalb Millionen Dollar belegt, weil deren Altersprüfung falsch eingestellt war. Durch die große Fehlerquote bei KI-gestützter Altersermittlung werden solche Systeme nämlich üblicherweise so justiert, dass sie erst Personen, die auf mindestens 23 Jahre geschätzt werden, Zugang zu Inhalten für Über-18-Jährige gewähren. Bei OnlyFans stand der Wert aber bei 20 Jahren, berichtete im April auch der IT-Identitätsdienstleister identyum aus Kroatien.

Was also klingt wie eine gute Idee – KI analysiert Verhalten oder Biometrie von Usern, um weniger invasiv deren Alter zu ermitteln –, funktioniert entweder nicht gut genug oder ist eben doch datenschutzrelevant invasiv.

Wo allerdings KI recht gut zu arbeiten scheint, ist … »in rl«, wie man auf Social Media schreiben würde; im »richtigen Leben« also. Zum Beispiel an SB-Kassen. Am Stuttgarter Flughafen hat ein Edeka-Markt 2024 als erster seiner Art KI zur Altersbestätigung an solchen Selbstbedienungskassen eingesetzt. Laut einem Computerwoche-Artikel von Jürgen Hill aus dem April 2024 läuft dieses System tatsächlich gut und zuverlässig, und da die Gesichts-Scans sofort wieder gelöscht werden, ist es auch DSGVO-konform.

Da ist sie dann zum Schluss also doch noch – die versprochene gute Nachricht.

Klopf, klopf – Chatkontrolle!

+

Schon sehr bald könnte es sein, dass Teile der Bundesregierung dabei helfen, ein »Ende der verschlüsselten und privaten Kommunikation« einzuläuten, wie es der Verein netzpolitik.org e. V. formuliert. Am 13. und 14. Oktober treffen sich die Justiz- und Innenminister*innen der EU-Staaten, und eine Initiative aus Dänemark zielt darauf, wieder einmal die sogenannte »Chatkontrolle« auf den Weg zu bringen. Das ist nicht nur eine Gefahr für die Grundrechte auf Meinungsfreiheit und Privatsphäre, sondern auch für die IT-Sicherheit in Firmen und Behörden und von Privatpersonen.

Für diejenigen, die mit dem Thema noch nicht vertraut sind: Der Begriff »Chatkontrolle« beschreibt Verfahren, mit denen die Ende-zu-Ende-Verschlüsselung (E2EE) der meisten Messenger Systeme umgangen werden soll. Hauptargument dafür ist die Bekämpfung von Kinderpornographie. Der Chaos Computer Club (CCC) schreibt dazu in einer aktuellen Mitteilung: Die EU-Kommission plant im Rahmen der Chatkontrolle, milliardenfach in Chats sämtliche Bilder und Filme zu scannen, um Darstellungen von Kindesmissbrauch zu finden. Inzwischen ist unbestritten, dass diese Idee falsch, gefährlich und zudem fehleranfällig ist. […] Der aktuelle Vorschlag der dänischen Ratspräsidentschaft umfasst alle problematischen Maßnahmen, die bisher in der EU keine Zustimmung gefunden haben: das Scannen nach bekannten und auch unbekannten Missbrauchsdarstellungen sowie das Scannen nach URLs.

Diese Scans können wegen der E2EE nicht außerhalb der kommunizierenden Geräte passieren. Deswegen zielt der neue Vorstoß auf das sogenannte Client-Side-Scanning (CSS). Dabei werden zu versendende Dateien bereits vor der Ende-zu-Ende-Verschlüsselung nach Inhalten überprüft. Dazu noch einmal der CCC: Welches technische Verfahren dazu verwendet werden soll, ist bisher nicht bekannt. Aber dieses Scanning kann anders als behauptet niemals minimal-invasiv sein, denn ein solcher Scanner muss ja gegen den Willen des Nutzers agieren. Notwendigerweise müssen dafür Hintertüren in den Protokollen oder auf den Geräten platziert werden.

Und diese Hintertüren sind in der Konsequenz tatsächlich Sicherheitslücken – und eines der Probleme, die Datenschützer*innen und IT-Sicherheitsexpert*innen bei einer etwaigen Einführung der Chatkontrolle sehen. So schreibt zum Beispiel Markus Reuter vergangenen Samstag für netzpolitik.org: Das Problem an solchen Hintertüren ist aber, dass nicht nur die vermeintlich Guten sie nutzen könnten, sondern auch findige Kriminelle oder nicht wohlgesonnene andere Staaten. Gibt es also technisch Zugang zur Kommunikation, dann werden auch andere diesen Zugang finden und nutzen. Die Sicherheit von Milliarden Endgeräten – vom Handy bis zum Computer – wäre in Gefahr. IT-Experten sprechen von einem Sicherheitsalbtraum.

Die CCC-Sprecherin Elina Eickstädt ergänzt: Sollte ein solches Gesetz zur Chatkontrolle auf den Weg gebracht werden, bezahlen wir nicht nur mit dem Verlust unser Privatsphäre. Wir öffnen auch Tür und Tor für Angriffe auf sichere Kommunikationsinfrastruktur.

Auch WhatsApp-Chef Will Cathcart warnt laut einem SPIEGEL-Artikel von gestern vor der Chatkontrolle: Der jüngste Vorschlag der EU-Präsidentschaft untergräbt weiterhin die Ende-zu-Ende-Verschlüsselung und gefährdet damit die Privatsphäre und Sicherheit aller. Vergangenen Freitag hat Meredith Whittaker, Präsidentin der datensicheren Chat-App Signal, ebenfalls erneut gewarnt, wie die Berliner Zeitung berichtet: Ein Einlenken Deutschlands gemäß den Plänen der EU-Kommission käme einem katastrophalen Kurswechsel gleich. Dies könne das Ende des Rechts auf vertrauliche Kommunikation in Europa bedeuten. Gerade Deutschland, das sich historisch stark gegen Massenüberwachung positioniert habe, dürfe diesen Grundsatz nicht aufgeben. Schon 2023 hatte sie im SPIEGEL-Interview (Paywall) gesagt, dass ihre App den Markt der Europäischen Union eher verlassen würde, als eine Auswertung von Chats zu ermöglichen.

Und auch Amnesty International, Reporter ohne Grenzen und der Chaos Computer Club appellieren eindringlich an die Bundesregierung, die Chatkontrolle zu verhindern. Sie warnen vor einem Angriff auf die Pressefreiheit, einem IT-Sicherheitsalptraum und einer Gefahr für die Demokratie, berichtet netzpolitik.org am vergangenen Donnerstag.

Ein weiterer gravierender Haken an dem dänischen Entwurf ist, dass er ausdrücklich das Durchforsten der Geräte mittels KI vorsieht. Under the proposal, the private communications of innocent people would be scanned with unreliable AI filters just in case they’re spreading CSAM. This is textbook mass surveillance […] even intelligence agencies are warning against it, sagt der Dachverband European Digital Rights (EDRi) auf seiner Website. Sinngemäß übersetzt: Nach diesem Vorschlag würde die private Kommunikation unbescholtener Menschen mit unzuverlässigen KI-Filtern durchsucht, auf die bloße Möglichkeit hin, dass sie CSAM [child sexual abuse material, Kindesmissbrauchs-Material] verbreiten. Das ist Massenüberwachung, wie sie im Buche steht. Sogar Geheimdienste warnen davor. Oder, wie das Zentrum für Digitalen Fortschritt D64 in einem Artikel auf seiner Website vom 2. Oktober schreibt: KI-Filter scannen alle Nachrichten anlasslos, ohne Verdacht. Das verstößt gegen die Unschuldsvermutung und wurde vom Europäischen Gerichtshof für Menschenrechte als massive Grundrechtsverletzung eingestuft.

Am Rande: Es ist sehr bezeichnend, dass die Konten von Regierungen und Militärs von diesem Eingriff in die Privatsphäre ausgenommen sind, während die Daten von Bürgern und Unternehmen abgehört werden sollen, so Tuta, Anbieter von E2EE-E-Mails aus Deutschland, in einem Blogpost von Ende September. Wenn das Verfahren so sicher und zuverlässig wäre, wie aus konservativen Kreisen immer wieder behauptet, sollten doch auch staatliche Behörden kein Problem damit haben.

Jahrelang sind die immer wieder eingebrachten Vorschläge zur Chatkontrolle unter anderem an der deutschen Regierung gescheitert. Das könnte sich nach Informationen von netzpolitik.org allerdings jetzt ändern, denn: Offenbar steht das BMI zwar weiterhin gegen ein Aufbrechen von Verschlüsselung, aber im Scannen von bekanntem Material auf den Endgeräten sieht es eine zustimmungsfähige Möglichkeit.

Aber ob nun bekannt oder nicht bekannt – was für Innenminister Dobrindt und Justizministerin Stefanie Hubig den angeblich entscheidenden Unterschied ausmacht: Endgeräte zu scannen und mittels KI nach Inhalten zu durchsuchen, ist per se ein Umgehen der E2EE und daher eine Bedrohung von Grundrechten und IT-Sicherheit. Deshalb schreibt auch das Bundesamt für Sicherheit in der Informationstechnik in einem heutigen Post seines Mastodon-Accounts: Jedes Brechen der E2E-Verschlüsselung erhöht die Angriffsfläche und birgt hohe Risiken.

Hier zur Vertiefung ein paar weitere Links:

Digital-Makramee

+

Verknüpfen, verknüpfen, verknüpfen – das ist das Mantra der Digitalkonzerne. Daten vernüpfen, um bis aufs i-Tüpfelchen genau Werbung maßzuschneidern, Technologien verknüpfen (sprich: Firmen aufkaufen), um an jedem, aber auch jedem Online-Geschäft mitzuverdienen, und auch: Programme verknüpfen, um das eigene Produkt als allgegenwärtigen Standard zu etablieren. Letzteres fällt den Unternehmen allerdings manchmal auf die Füße. Ein Beispiel aus der Vergangenheit: Die Verzahnung des Internet Explorers mit Windows. Und ein aktuelles: Zusammenfassungen von Googles eigener KI, die noch über dem ersten Suchtreffer angezeigt werden.

Ein US-Verlagshaus verklagt momentan Google, weil die KI-generierten Zusammenfassungen oberhalb der Suchergebnisse dazu führen, dass Menschen gar nicht mehr auf die entsprechenden Sites gehen – und denen deshalb Einnahmen und Kontakte entgehen. Ist ja auch logisch: Wenn oben schon steht, was ich wissen will, warum soll ich dann unten noch auf den Link klicken? (Kleiner Tip: Weil erstens die KI nicht immer wirklich zutreffend zusammenfasst und zweitens die Suchergebnisse zusätzliche Informationen liefern, die ein Thema vertiefen können. Schnell-schnell ist nicht immer gut-gut.)

Penske Media heißt das Unternehmen, das die Klage eingereicht hat, und es vertreibt zum Beispiel den Rolling Stone oder auch den Hollywood Reporter, das Billboard Magazine, Indiewire oder Variety. Bekannte, große Magazine, die große Redaktionen bezahlen müssen. Und das Geld dafür unter anderem mit Werbung auf der eigenen Website reinholen. Aber Werbetreibende bezahlen Werbung nur dann, wenn die Site auch tatsächlich aufgerufen wird, Stichwort: »Page Impressions«.

Die Anklageschrift sagt, dass Google seine Marktmacht monopolistisch missbrauche, indem es Verlage wie die Penske Media Group (PMC) zwinge, Inhalte bereitzustellen, die Google dann ohne Erlaubnis in seinen KI-generierten Antworten neu veröffentliche. Diese Antworten buhlten laut der Anklage auf unfaire Weise um die Aufmerksamkeit der Internet-User und verletzten damit US-Kartellrecht. (This action challenges Google’s abuse of its adjudicated monopoly in General Search Services to coerce online publishers like PMC to supply content that Google republishes without permission in AI-generated answers that unfairly compete for the attention of users on the Internet in violation of the antitrust laws of the United States.)

Der beklagte Internet-Gigant widerspricht natürlich. Der SPIEGEL schrieb vor drei Wochen über den Fall: Ein Google-Sprecher konterte, Nutzerinnen und Nutzer fänden die Websuche mit KI-Zusammenfassungen hilfreicher und nutzten sie mehr. Was ja im Grunde nichts anderes heißt als: Wir können nichts dafür, die User wollen es so. Noch weniger überzeugend klingt das Argument, Google leite täglich Milliarden Klicks an andere Websites weiter – und mit den KI-Überblicken werde deren Kreis vielfältiger. Da sei mal Das Bo von vor einem Vierteljahrhundert zitiert: ’Türlich, ’türlich – sicher Dicker!

Bleibt abzuwarten, wie das Gericht in Washington, D.C. entscheidet. Soweit man in diesem Fall auch mit dem Urheberrecht argumentieren könnte (content that Google republishes without permission, ist die Rechtslage nach wie vor reichlich unklar, auch wenn im Juni Copyright-Vorwürfe von Autor*innen gegen die KI-Unternehmen Anthropic und Meta von zwei US-Gerichten weitgehend zurückgewiesen wurden. Was aber Googles Monopolstellung betrifft – die ja doch ziemlich fraglos gegeben scheint –, hat Richter Amit Mehta gerade erst Anfang September überraschend eindeutig zumindest größtenteils pro Google entschieden: Der Konzern muss weder den Webbrowser Chrome, noch das Betriebssystem Android verkaufen. Da war der Kläger die US-Regierung.

Gut möglich also, dass der Gigant aus Mountain View auch in dem neuen Verfahren die Oberhand behält und seine KI den Usern weiter die Antworten – prominent platziert – anbieten darf.

Computer-Viren im echten Leben

+

Erst kürzlich hatten wir berichtet, dass KI jetzt auch zunehmend zur Programmierung und Verbreitung von Viren und anderen Computer-Schädlingen eingesetzt wird. Jetzt ist das erste Real-Life-Virus aus dem Rechner da. Forscher der kalifornischen Stanford University haben mittels KI einen Bakteriophagen entwickelt – laut Duden ein »virenähnliches Kleinstlebewesen, das Bakterien zerstört«.

Gefördert vom Stanford Institute for Human-Centered Artificial Intelligence, also dem Insitut für menschenzentrierte Künstliche Intelligenz (was auch immer das genau bedeuten mag), hat das KI-designte Virus die Funktion, Stämme der Bakteriengattung Escherichia coli (kurz E. coli, oder auch einfach Kolibakterium) zu jagen und zu töten, wie es in der Veröffentlichung im Wissenschaftsmagazin Nature heißt. E. coli ist zwar ein häufiger und normaler Bewohner des menschlichen und tierischen Darms, jedoch gibt es auch zahlreiche verschiedene pathogene Stämme, wie Wikipedia schreibt. Die teilweise sogar richtig gefährlich werden können und zu den häufigsten Verursachern von menschlichen Infektionskrankheiten zählen. Und auf die hat es der KI-Bakteriophag abgesehen.

Die Studie ist zwar noch im Preprint-Stadium, also noch nicht »peer-reviewed« (von Fachkolleg*innen gegengelesen und überprüft), aber die Forscher*innen sind trotzdem überzeugt, dass sie die Tür zu einem ganzen Universum neuer Möglichkeiten geöffnet haben: The next step is AI-generated life, sagt Brian Hie, Computer-Biologe in Stanford und an der Studie beteiligt. Nichts weniger als Leben schaffen soll die KI also.

Zwar fügt sein Kollege Samuel King hinzu, dass a lot of experimental advances need to occur in order to design an entire living organism, es also noch viele experimentelle Fortschritte braucht, um einen vollständigen lebenden Organismus zu erschaffen, aber Hie, der auch das Laboratory of Evolutionary Design leitet, wo Forschung at the intersection of biology and machine learning, also an der Schnittstelle zwischen Biologie und Maschinenlernen betrieben wird – Hie verfügt über ansteckenden Optimismus. Vielleicht aus seiner Zeit als Gastforscher bei Meta AI, der KI-Abteilung der Facebook-, Instagram-, Threads- und WhatsApp-Mutter?

Eine Frage, die sich aufdrängt, aber mit den vorliegenden Studienergebnisse noch nicht befriedigend beantwortet werden kann: Sind nicht Viren diese Dinger, die ständig mutieren? Sich also ganz eigenmächtig und komplexen evolutionären Regeln (und Zufällen) folgend konstant verändern? Ist die Mu­ta­bi­li­tät dieses »Computer-Virus« ausgeschaltet?

Das KI-geschaffene Virus ist der erste erfolgreiche Versuch, ein komplettes Genom zu erzeugen. Schon vorher war KI angewandt worden, um einzelne DNA-Sequenzen zu erzeugen; der Nature-Reporter Ewen Callaway hat im Mai für einen Nature-Artikel mittels KI ein Protein erzeugt. Aber eben nur ein einzelnes Eiweiß.

Für alle, denen beim Lesen leicht schummerig wird, hat J. Craig Venter, der vor fast zwanzig Jahren zu den Pionieren in der Schöpfung neuer Organismen mittles Labor-DNA gehörte, ein vielleicht beruhigendes Argument parat: Die KI-gestützte Synthetisierung von DNA sei bloß eine schnellere Version der Versuch- und Irrtum-Reihen, die er und andere Forscher damals durchgeführt hätten.

KI, das gilt ja auch für viele andere Bereiche, ist durch die gewaltigen Datenmengen, mit denen sie gefüttert wurde, und die extrem hohe Rechenleistung einfach oftmals viel, viel schneller als Menschen. Wenn es allerdings darum geht, Leben zu schaffen, wären Fehler noch weitaus schlimmer, als wenn ein ChatGPT mal ein paar Irrtümer in ein Bewerbungschreiben einbaut. Was an der Schnittstelle zwischen Biologie und Maschinenlernen so alles passieren kann, zeigte kürzlich eine Halluzination der Google-Medizin-KI Med-Gemini: Sie erfand ein Organ, das es nicht gibt – und dieser Fehler wurde über einen längeren Zeitraum von niemandem bemerkt. Das österreichische Magazin Futurezone berichtete im August und schrieb: Wenn es potenziell um Leben oder Tod von Patientinnen und Patienten geht, dürften so gravierende Diagnosefehler der KI – die noch dazu keinem menschlichen Fachpersonal auffallen – einfach nicht passieren.

Sinngemaß dasselbe muss man auch für neu erschaffene Viren, Bakterien oder sonstige Organismen dringend fordern. Eine Neuauflage der COVID-19-Pandemie mit KI-halluzinierten synthetischen Viren zum Beispiel wäre nur eines der vielen vorstellbaren Katastrophen-Szenarien.

Deswegen warnt auch J. Craig Venter: Sobald KI für das Design von Viren eingesetzt wird, die potenziell Menschen infizieren könnten, hätte er grave concerns, ernste Bedenken. One area where I urge extreme caution is any viral enhancement research, especially when it’s random so you don’t know what you are getting.Ein Bereich, in dem ich zu extremer Vorsicht dränge, ist die Forschung zur Verbesserung [oder Verstärkung] von Viren; vor allem, wenn das nach dem Zufallsprinzip geschieht, man also nicht weiß, was herauskommen wird.

SMS 2FA OK?

+

Eines der verbreitetsten Verfahren für die Zwei-Faktor-Authentisierung ist der Versand von Einmal-Passwörtern per SMS. Problem ist nur: Das ist alles andere als sicher. Was wir tun können, um unsere Zugänge trotzdem vernünftig absichern zu können, haben wir uns mal etwas genauer angesehen.

Vor drei Wochen schrieben wir hier über den potentiellen PayPal-Hack, bei dem allem Anschein nach die Zugangsdaten zu fast 16 Millionen Konten online angeboten wurden. Es folgten die üblichen Mahnungen (die ja auch weitgehend absolut berechtigt sind): Passwort ändern, Passwörter nie mehrfach verwenden, starke Passwörter mit mindestens 16 Zeichen verwenden, Passwortmanager-Software benutzen – und Zwei-Faktor-Authentisierung (2FA) aktivieren.

Bei der 2FA wird zusätzlich zu einem festen Passwort oder einer Passphrase ein einmalig gültiger Code generiert, der verfällt, sobald er eingegeben wurde. Gute Idee – eigentlich. Es gibt nämlich ein großes Aber, wenn dieser Code per SMS an die User verschickt wird.

Am 18.6. dieses Jahres veröffentlichte das Wirtschaftsmagazin Forbes einen Artikel mit dem Titel Why You Should Stop Using SMS 2FA Codes On Your Smartphone – also etwa Warum Sie aufhören sollten, SMS-2FA-Codes auf Ihrem Smartphone zu verwenden. Darin zitiert Autor Zak Doffman zum Beispiel den Konzern Microsoft, der im August alle Passwörter aus seiner eigenen Authenticator-App gelöscht hat, wie das Magazin PC-Spezialist berichtet, und nur noch Passkeys akzeptiert. Microsoft sagte in dem Zusammenhang: Die Ära der Passwörter geht zu Ende.

Fest steht, dass die Methode 2FA-Codes via SMS unsicher ist; darüber schrieb zum Beispiel heise online schon im Juli des vergangenen Jahres. In dem Bericht heißt es, der Chaos Computer Club konnte rund 200 Millionen SMS mit 2FA-Codes einsehen. In den falschen Händen könnte das für viel Ärger sorgen. Und der Provider DomainFactory legte sogar schon vor fast vier Jahren nahe, die SMS-Variante zu vermeiden, listete mögliche Probleme auf und schlug Authenticator-Apps als Alternative vor.

Dazu veröffentlichte die Stiftung Warentest vor etwa einem Jahr einen Vergleichstest, empfahl zwei Modelle und bemängelte, dass viele dieser Anwendungen gravierende Lücken beim Datenschutz haben und teilweise sogar gegen die DSGVO verstoßen. Das Magazin N-TV berichtete seinerzeit.

Sind also Authenticator-Apps nur die Wahl zwischen Teufel und Beelzebub? Und sind Passkeys das Ding der Zukunft? Naja, immerhin empfiehlt das BSI sie, und das Magazin PC Welt hat vor einem Monat eine ausführliche Anleitung veröffentlicht. Da inzwischen auch große Anbieter und Plattformen das Verfahren bereithalten, ist es vielleicht tatsächlich eine gute Idee, darauf umzusteigen.

Definitiv ist jetzt die Zeit gekommen, Nur-Passwort-Logins ohne zweiten Sicherheitsfaktor auf 2FA zu ändern (und, wo das immer noch nicht möglich ist, gegebenenfalls die betreffenden Angebote zu kündigen) und auch alle SMS-2FA-Anmeldungen auf Authenticator-Apps oder Passkeys umzustellen.

Und noch etwas: Es gibt auch Hardware-Sicherheitsschlüssel, die als sehr sicher gelten. Sie werden mittels USB-Stick oder Bluetooth mit dem Gerät verbunden und liefern so den Freischalt-Code. Das Magazin Geekflare hat dazu im Januar eine Übersicht veröffentlicht, die auch sieben gängige Modelle vergleicht.

KI-Crime
Hacking leicht gemacht

+

Die meisten haben ja inzwischen schon mal von SaaS gehört, »Software as a Service«, wenn also Programme nicht mehr auf dem lokalen Rechner, sondern in der Cloud laufen. Relativ neu und wahrscheinlich längst nicht so bekannt ist »AI-generated ransomware-as-a-service«, wie sie die KI-Schmiede Anthropic in ihrem aktuellen »Threat Intelligence Report« vorstellt. Darin werden verschiedene Ransomware-, Datenklau- und Hackerattacken aufgezeigt, für die Künstliche Intelligenz eingesetzt wurde.

Zu den vielen Gründen, warum man den KI-Hype mit Vorsicht genießen sollte und über die wir hier schon einige Male ausführlicher berichtet haben, kommt jetzt also noch dieser dazu: KI wird zunehmend von shady Akteuren benutzt, um den oft aufwendigen Programmierprozess massiv zu vereinfachen, der einer erfolgreichen Cyber-Attacke normalerweise vorausgeht.

Vor ein paar Tagen berichtete der SPIEGEL und schrieb: Demnach können auch Kriminelle mit geringen technischen Kenntnissen mithilfe von KI-Chatbots wie Anthropics Claude komplexe Operationen durchführen. Klassischer Fall von Des einen Freud, des anderen Leid, aber vor allem auch ein Warnhinweis an alle, die sich bislang weigern, stärkere Regularien für Künstliche Intelligenz einzuführen. Wie wäre es zum Beispiel mit Isaac Asimovs erstem Robotergesetz: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Und diese Art krimineller KI ist leider auch keine theoretische Möglichkeit, sondern wird bereits aktiv angewandt. Allein im vergangenen Monat sind laut Anthropic 17 Unternehmen und Organisationen aus Bereichen wie Gesundheitswesen, Regierung und Religion Ziel automatisierter Attacken gewesen, schreibt der SPIEGEL. Schwachstellen eines IT-Systems finden, Angriffsvektoren und systemkritische, wichtige Daten ausfindig machen – das kann eine KI naturgemäß gut, denn die digital-neuronalen Netzwerke sind ja besonders gut darin, große Datenmengen in Windeseile zu durchforsten und zu analysieren.

Anthropic nennt im Original des Reports unter anderem das Phänomen Vibe-Hacking. In Anlehnung an Vibe-Coding, bei dem Software-Code mit simplen KI-Prompts erzeugt wird, beschreibt Vibe-Hacking den Einsatz von Künstlicher Intelligenz, um komplette Angriffe in Echtzeit durchzuführen, wie das Wiener Startup- und Tech-Medium Trending Topics Ende August schrieb. Anders als bei herkömmlicher Ransomware übernahm die KI dabei multiple Funktionen: Aufklärung von Zielsystemen, Sammlung von Zugangsdaten, Eindringen in Netzwerke und Datenexfiltration. Das System generierte zudem individuell angepasste HTML-Erpresserschreiben mit spezifischen Finanzinformationen, Mitarbeiterzahlen und rechtlichen Drohungen für jede Organisation.

Im Anthropic-Report werden beispielweise auch Fälle beschrieben, in denen sich nordkoreanische Agenten in betrügerischer Absicht mit Claude als Remote-Mitarbeiter bewerben (um so die Firmen zu infiltrieren), indem die KI den Zielfirmen IT-Wissen vorgaukelt, das sie tatsächlich gar nicht haben. Und ein Russisch sprechender Entwickler hat offensichtlich Claude verwendet, um Schadsoftware zu erzeugen, die über sehr fortgeschrittenen Fähigkeiten verfügt, sich im System zu verbergen und herkömmlichen Entdeckungsmethoden zu entgehen.

Angesichts der relativ kurzen Zeitspanne, die KI erst weitverbreitet im Einsatz ist, und der dafür schon sehr ausgeklügelten Hacking-Methoden darf man wohl prognostizieren, dass da noch eine Menge Luft nach oben ist. das Thema KI-Crime wird uns zunehmend beschäftigen.

Auch die Faktenchecker des österreichischen Vereins Mimikama haben vor ein paar Tagen das Thema aufgegriffen. Sie berichteten von der KI-Malware PromptLock: Die Sicherheitsexperten von ESET haben eine Ransomware entdeckt, die nicht nur Daten verschlüsselt – sondern dabei selbstständig entscheidet, was sie angreift. […] Kein Hacker, der von außen kontrolliert. Keine Cloud, die Daten sendet. Sondern: Eine Künstliche Intelligenz, die lokal auf dem Computer der Betroffenen operiert. Die Software erzeugt in Echtzeit ihre eigenen Angriffsskripte.

Eine kleine Schlussbemerkung sei gestattet: Dass die Firma Anthropic sozusagen vor ihrer eigenen Schöpfung warnt, passt in das momentan übliche Schema. KI-Entwickler machen auf die Gefahren von KI aufmerksam und entziehen sich so der Verantwortung (wir haben’s euch doch gesagt!), statt entsprechende Schritte proaktiv zu unternehmen. So wie OpenAI-Chef Sam Altman, der vor anderthalb Jahren warnte, dass es künftig mehr von Künstlicher Intelligenz als von Menschen erstellte Inhalte geben wird. Die Gesellschaft müsse sich auch auf negative Folgen des KI-Booms vorbereiten. (Quelle: N-TV.) Geld verdient Altman damit trotzdem weiterhin gern. Und nicht wenig.

Andere sind da etwas glaubwürdiger und wenden sich von der Technologie ab; der Ex-Google-Mitarbeiter Geoffrey Hinton zum Beispiel, der den Konzern 2023 verließ, um fortan vor den ernsten Risiken für die Gesellschaft und für die Menschheit zu warnen. Er sagte damals: Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen. (Quelle: Tagesschau)

Claude ist zwar (noch?) kein Skynet, aber wenn von KI autonom durchgeführte Ransomware- und großkalibrige Hacking-Angriffe die Regel werden, dann können zumindest die wirtschaftlichen Folgen katastrophal sein. Allein im aktuellen Anthropic-Report geht’s um bis zu einer halben Million Dollar.

PayPal grüßt das Murmeltier

+

Zugangsdaten zu fast 16 Millionen Konten des Zahlungsdienstleisters sollen zum Schnäppchenpreis im »Wild Wild Web« angeboten werden. Unklar ist, ob die Datensätze überhaupt echt sind, aber PayPal-Nutzer*innen sollten auf jeden Fall ihren Kontozugang absichern. Und da kommt das Murmeltier ins Spiel. Denn die Empfehlungen sind immer dieselben.

Laut einer Hackernews-Meldung bietet ein*e Verkäufer*in namens Chucky_BF 15.8 Million Plain-Text PayPal Credentials an. Das Paket hat den schönen Namen Global PayPal Credential Dump 2025, soll 1,1 GB groß sein und 750 US-Dollar kosten. Darin enthalten sind angeblich raw email:password:url entries across global domains, also Klartext-Datensätze mit E-Mail, Passwort und zugehörigem URL.

DER SPIEGEL berichtete am Dienstag und zitierte den HaveIBeenPwned-Gründer Troy Hunt, der sich sicher sei, dass die Daten definitiv nicht im Klartext von PayPal stammten, sondern entweder aus anderen Quellen oder mittels Infostealern abgesaugt wurden.

Kleiner Einschub an dieser Stelle: HaveIBeenPwned ist eine Website, in der E-Mail-Adressen aus öffentlichen Leaks und Hacks gesammelt werden. Wenn Sie wissen wollen, ob Ihre Mailadresse schon in irgendwelchen Hacker-Listen steht, können Sie das dort überprüfen. Momentan sind in der Datenbank 15.097.848.140 Accounts enthalten. Ja, das sind fünfzehn Milliarden.

So, und nun zum Murmeltier: Die Maßnahmen, die jetzt empfohlen werden, sollten Ihnen bekannt vorkommen, denn sie gehören zum kleinen Einmaleins der IT-Sicherheit:

  • Passwort ändern
  • jedes Passwort nur für einen Service verwenden1
  • starke Passwörter verwenden2
  • Passwortmanager verwenden3
  • 2FA (Zwei-Faktor-Authentisierung) aktivieren4

1 Eine der ersten Amtshandlungen aller Hacker*innen, wenn sie an eine solche Daten-Goldgrube gekommen sind, ist zu prüfen, ob die E-Mail oder der Benutzername auch anderswo verwendet wird. Und dann wird versucht, mit demselben Passwort auch dort Zugang zu bekommen.

2 Mindestens 16 Zeichen (the more, the merrier!), Groß- und Kleinschreibung mischen, dazu Ziffern und Sonderzeichen, auch Leerzeichen sind in der Regel erlaubt, so dass sich auch Sätze anbieten, die sich vielleicht leichter merken lassen. Ein Beispiel: MerK DiR, 1m $omM3r S!nd 7emP3r@tUren höHeR. Sieht kompliziert aus? Nach zehnmal eingeben ist es im Muskelgedächtnis gespeichert. (Bitte jetzt nicht dieses verwenden!)

3 Sehr empfehlenswert ist zum Beispiel das kostenlose Open-Source-Programm KeePassXC, eine Weiterentwicklung von KeePass. Es ist für Windows 10/11, MacOS 12+ (Apple Silicon) und Linux erhältlich, und es gibt Autofill-Browsererweiterungen, mit denen das automatische Ausfüllen von Online-Zugangsdaten extrem einfach gemacht wird.

4 Ein wenig Vorsicht ist geboten bei der 2FA mittels SMS; zu den verschiedenen Verfahren gibt’s hier in ein paar Tagen einen Extra-Artikel.

Noch ein wichtiger Hinweis: Die Website keepass.de ist nicht legitim und verbreitet Schadsoftware! Der Link zum Original lautet keepass.info.

DIEGO will ins All

+

Seit mindestens sechs Jahren wartet DIEGO darauf, die dünnen unteren Atmosphären-Schichten zu verlassen, durch die Tropo-, Strato- und Mesosphäre bis in die Thermosphäre vorzudringen – und damit an die dort oben fließend werdende Grenze zum interplanetaren Raum. Jetzt könnte es endlich so weit sein! Ach, und für alle, die DIEGO noch nicht kennen: Die Abkürzung steht für Dynamic Infrared Earth [G?] Observation, und es handelt sich dabei um einen multispektralen thermischen Infrarotsensor.

Der Sensor wird von einem Team um Dr. Johannes A. Schultz an der Ruhr-Uni Bochum (RUB) zusammen mit Forscher*innen der Universität Bonn entwickelt. Ende Oktober 2019 wurde DIEGO zuerst mit einer Präsentation  vorgestellt; im September und November 2018 hatten die Forschenden dazu Papers veröffentlicht. Damals war der Plan, den Sensor an Bord der ISS zu bringen.

Jetzt soll DIEGO selbst Flügel bekommen. In einer gemeinsamen Pressemitteilung stellen die RUB und die Uni Bonn das Projekt vor:

Der Satellit DIEGOSat soll mit bis zu drei Überflügen täglich über Deutschland einen nahezu kontinuierlichen Datenfluss ermöglichen. Dies eröffnet neue Chancen, etwa für eine präzise Überwachung von Vegetation, Trockenheit oder Wasserbedarf in der Landwirtschaft sowie eine frühzeitige Erkennung und Analyse von Bränden. Darüber hinaus leistet das Projekt einen bedeutenden Beitrag zum Klimaschutz, indem es Daten zur Minderung von Dürre- und Ernteausfällen liefert, gezielte Anpassungsstrategien an den Klimawandel ermöglicht und Lücken wichtiger Daten in der Erdbeobachtung schließt. Die Anwendungen reichen von Umweltmonitoring über Sicherheit und Katastrophenschutz bis hin zu Wettervorhersage, Pflanzenbewässerung, Stadtplanung und Gesundheit.

An Bord von DIEGO befinden sich insgesamt 11 Infrarot-Sensoren, die in verschiedenen Bereichen des Spektrums arbeiten, und ein Videokamerasystem, mit dem zum Beispiel 3D-Modelle erstellt werden können. Dadurch wird eine große Bandbreite möglicher Einsatzfelder erreicht. Denn es ergeben sich doch sehr unterschiedliche Anforderungen aus der parallelen Erfassung von Waldbränden, Dürren, Wasserstress auf Feldern und in Wäldern oder Wärmeinseln in Städten, oder auch dem Monitoring von Gletschern oder Wolkenoberflächentemperatur.

Einige Besonderheiten des Systems sind: DIEGOSat fliegt rund 400 Kilometer niedriger als die meisten anderen Satelliten, kann daher präzisere Daten erheben, und: Anders als viele herkömmliche Erdbeobachtungssatelliten fliegt DIEGOSat nicht über die Pole, sondern auf einer geneigt-äquatorialen Umlaufbahn. So können Tages- und Nachtschwankungen in der Oberflächentemperatur besser erfasst werden. Damit ergeben sich neue Ansätze für die Stadtplanung, Bewässerungsstrategien und Klimaanpassung, schrieb Sebastian Sendlak vor anderthalb Wochen für das Stadtmagazin Bochum Journal. Dies bedeutet zum Beispiel auch, dass tägliche Schwankungen der Oberflächentemperatur von Städten genauer untersucht werden können, wird Projektleiter Johannes Schultz in der RUB-Pressemitteilung zitiert.

Momentan befindet sich das Programm in einer Machbarkeitsstudie, die vom Wirtschafts- und Klimaschutzministerium des Landes NRW finanziert wird. Der Bau des Satelliten und eines Kontroll- und Auswertungszentrums soll aus Bundesmitteln finanziert werden.

Leuchten Leute?

+

»›Du bist von einem sehr schönen Licht umgeben‹, sagt Dee plötzlich. […] ›deine Aura ist weiß, aber ungewöhnlich kraftvoll.‹« Dieses Zitat stammt aus dem Buch »Ursprung« der dänischen Autorin Eva Tind¹. Da denken jetzt viele wahrscheinlich: »Aura, pffft! Was für’n Quatsch!« Aber »think again«, wie es so schön im Englischen heißt: Eine Forschungsgruppe hat kürzlich immerhin etwas, das entfernt an eine Aura erinnert, bei Mäusen und Pflanzen sichtbar gemacht.

Es ist allerdings nur ein sehr schwaches Licht, und um es fotografieren zu können, braucht es mehr als bloß eine Handykamera. Deswegen sind die Untersuchungen des Phänomens auch noch nicht besonders weit, obwohl sie schon seit Jahrzehnten laufen. Ultraschwache Photonenemission (UPE) nennt die Wissenschaft solche Bio-Strahlungen, und nicht nur braucht es Spezialkameras, die imstande sind, schon auf einzelne Lichtteilchen (Photonen) zu reagieren, sondern auch eine absolut dunkle Umgebung.

Stefan Schramm ist Professor für Angewandte Organische Chemie an der Dresdner Hochschule für Technik und Wirtschaft. Der SPIEGEL zitiert ihn in einem Artikel zum Thema: Ultraschwach bedeutet in diesem Zusammenhang, dass es sich um extrem geringe Lichtmengen handelt – typischerweise nur wenige Photonen –, die selbst mit hochsensibler Messtechnik nur mit großem Aufwand nachweisbar sind. Er ist zwar an der aktuellen Studie nicht beteiligt gewesen, forscht aber zum Thema Biolumineszenz und sagt, bei der Forschung zu UPE gebe es Parallelen zur klassischen Biolumineszenz, wie man sie etwa von Glühwürmchen kennt – allerdings ist UPE um mehrere Größenordnungen schwächer und ohne technische Hilfsmittel nicht sichtbar.

Forschenden an der kanadischen University of Calgary ist es nun gelungen, solche UPE von Mäusen und Pflanzen in einem extrem lichtempfindlichen Versuchsaufbau einzufangen und sichtbar zu machen; die Ergebnisse haben sie im April in einer Studie veröffentlicht. Darin heißt es: We use electron-multiplying charge-coupled device (EMCCD) and charge-coupled device (CCD) cameras to capture single visible-wavelength photons with low noise and quantum efficiencies higher than 90%. Was sich ungefähr so übersetzen lässt: Wir haben Elektronen-vervielfachende CCD-Sensoren und CCD-Kameras verwendet, um einzelne Photonen im sichtbaren Spektrum mit geringen Hintergrundrauschen und einem Quantenausbeute von mehr als 90% zu erfassen.

Zugegeben, auch die Übersetzung hilft da nicht allzu viel weiter; ein bisschen erinnert der Versuchsaufbau an die Experimente zum Quanten-Internet über herkömmliche Glasfaserkabel, die hier im Mai Thema waren. Kurz gesagt, ist es dem Team gelungen, mit neuen und extrem empfindlichen Sensoren und Prozessoren Lichtteilchen sichtbar zu machen, die das (menschliche) Auge nicht wahrnehmen kann.

Auch wenn es immer wieder Menschen gibt, die von sich oder anderen behaupten, die Aura anderer sehen zu können – damit hat das hier beschriebene Phänomen nichts zu tun. Ein Artikel im britischen The Mirror schreibt: Das wissenschaftliche Phänomen unterscheidet sich von dem sprituellen Glauben an eine Aura, die von Menschen mit übersinnlichen Fähigkeiten wahrgenommen werden kann, und zitiert den Physiker Vahid Salari: UPE ist eng mit Vitalität verbunden. Das Studium von UPE ist von grundlegender Bedeutung für die Grundlagenforschung, weil es für nicht-invasive Einblicke in biochemische und Stoffwechsel-Vorgänge in lebenden Organismen angewandt werden kann.

Die UPE ist in den untersuchten Organismen auf verschiedene Regionen unterschiedlich verteilt, so dass das »Lebenslicht« potenziell auch Hinweise auf bestimmte Vorgänge in der Biochemie geben kann. Der SPIEGEL hat in seinem oben verlinkten Artikel Bilder der Forschungsgruppe veröffentlicht, die das sehr eindrucksvoll zeigen – und auch in einem Vorher-Nachher-Vergleich deutlich machen, dass die Strahlung von zum Beispiel untersuchten Mäusen nach dem Tod tatsächlich allmählich verschwindet.

Und um die Frage aus der Überschrift auch noch zu beantworten: Ja, auch Leute leuchten. Aber mit bisher zur Verfügung stehenden Methoden wird man das nicht ohne weiteres sichtbar machen können. Auch wenn manche Magazine der Versuchung nicht widerstehen konnten, »spannende« Überschriften zu erfinden: Humans Give Off a Light That Is Extinguished in Death, Study Reveals zum Beispiel, oder auch We Emit a Visible Light That Vanishes When We Die, Says Surprising New Study – oder sogar Humans give off a ghostly glow that vanishes when we die. Geisterhaft ist daran allerdings nichts …

¹ Lesenswertes Buch, in dem es nur zu einem sehr geringen Teil um Auren geht, sondern hauptsächlich darum, den eigenen Platz in der Welt zu finden, als gebürtiger Däne mit asiatischem Aussehen, als alternde Künstlerin, als Achtzehnjährige.

Bye-bye, Ten!

+

Alle paar Jahre wieder die immer gleiche Zeremonie: Aus dem One Microsoft Way im kalifornischen Redmond kommt die Nachricht, dass der Support für ein Windows-Betriebssystem ausläuft. Diesmal ist es Windows 10, das ab Oktober nicht mehr mit Updates versorgt wird. Außer – man zahlt.

Nachdem der Konzern im Oktober 2009 mit Windows 7 die Scharte ausgewetzt hatte, die der Mega-Flop Vista geschlagen hatte, gelang ihm im Juli 2015 etwas Ähnliches mit Windows 10, das die ungeliebten 8er-Versionen ersetzte. Inzwischen ist das OS damit mittlerweile zehn Jahre alt; Zeit also, es zu den Akten zu legen, dachte sich wohl die Führungsetage um CEO Satya Narayana Nadella.

Der Abschied vollzieht sich, wie auch schon in der Vergangenheit, in Stufen: Für das »gewöhnliche Volk« endet der Support am 14. Oktober 2025. Damit wird der Computer zwar nicht unbenutzbar, aber zukünftige Programm-Updates werden immer häufiger nicht mehr funktionieren, und vor allem wird das System anfälliger für Angriffe. Denn es werden auch keine Sicherheits-Patches mehr aufgeliefert. Und dann kann es sehr schnell gehen, dass der Computer zu einem Zombie und damit Teil eines Botnets wird (ohne, dass die Person vor dem Bildschirm das merkt). Im »besten« Fall verschickt er dann massenweise Spam-Mails, im schlimmeren Fällen legt er zusammen mit anderen das halbe Internet lahm.

Wer noch nicht bereit ist, auf die aktuelle Version Windows 11 umzusteigen, kann für 61 Dollar im ersten Jahr (und der Preis verdoppelt sich jedes Jahr für maximal drei Jahre) eine »Fristverlängerung« von sogenannten Extended Security Updates kaufen; hier Infos von Microsoft dazu. Das allerdings betrifft, wie der Name schon sagt, nur die Sicherheits-Updates. Wenn Programme, die unter Windows laufen, upgedatet werden, kann es trotzdem sein, dass sie mit der Version 10 nicht mehr funktionieren werden.

Es wird also irgendwann ohnehin der Moment kommen, an dem der Umstieg auf ein neues OS notwendig wird. Das kann entweder die 11er-Version sein (wie der Umstieg funktioniert, beschreibt Microsoft auf dieser Hilfeseite), oder aber – für alle, die vielleicht inzwischen die Nase voll haben davon, immer wieder neue Betriebssysteme kaufen zu müssen, oder aus sehr berechtigten Gründen keinen »Copilot« auf ihrem Rechner haben wollen – eine Alternative.

Wir haben es hier schon ein paarmal erwähnt, deswegen heute nur in Kurzform: Linux hat längst seine Nerds-only-Mängel verloren und ist ein professionelles Betriebssystem, das in weiten Teilen sowohl optisch, als auch funktional den kommerziellen Systemen ebenbürtig ist – und teilweise sogar überlegen.

Linux ist FOSS, also Free und Open-Source-Software, das heißt, es kostet nichts. Und eine Variante, die den Umstieg von Windows besonders einfach macht, ist Zorin OS. Das auf dem weitverbreiteten und sehr gut unterstützten Ubuntu basierende System läuft auch auf älteren Computern reibungslos und kommt »out of the box« mit einem Design und einem UI, die Windows sehr verwandt sind. Sich hier zurechtzufinden, ist sehr einfach, zumal alle großen Linuxe auch vollständig in deutscher Sprache laufen. Und: In der Regel lassen sich Linux-Distributionen auf eine DVD oder einen USB-Stick brennen und beim Hochfahren starten, so dass man erst einmal ausprobieren kann, ob einem die jeweilige Version liegt, ohne irgendwas auf dem Computer verändern zu müssen. Eine Übersicht über die mitterweile hunderte von Linux-Distros gibt die Website distrowatch.com.

Und noch eins: Niemand sollte den Umstieg allzu lange hinauszögern. Denn die Konsequenzen, vor allem, was die Systemsicherheit betrifft, können teuer werden. Es gibt zwar sogar immer noch einige Windows-XP-Computer, die sich mit dem Internet verbinden, aber das sind tatsächlich offene Scheunentore für Angreifer aller Art, und das Beispiel ist ausdrücklich nicht zur Nachahmung empfohlen …

Life imitates art - Uni-Team entwickelt Tricorder

+

»Es liegt was in der Luft«, sagt der munkelnde Volksmund gern; Phil Collins sang einst: »I can feel it coming in the air tonight.« Und es sieht ganz so aus, als sei da was dran: Denn Forscher der Uni Florida (UF) haben jetzt die Luft der irischen Hauptstadt Dublin auf DNA untersucht. Und sind fündiger geworden, als sie selbst es zu hoffen wagten. Mit einem Gerät, das von Bord der USS Enterprise aus dem Star-Trek-Universum stammen könnte.

Schon seit den Zeiten der ersten »Enterprise«-Generation führt die Besatzung immer einen Tricorder mit sich, der die Umgebung scannen, die resultierenden Daten aufnehmen und darüberhinaus analysieren kann.

Hier auf der Erde ist es nicht nötig zu messen, ob es Lebensformen gibt, denn – das wissen wir ja. Aber mittels Luftmessung DNA nachzuweisen, kann eine Menge andere Zwecke erfüllen. So schreibt der SPIEGEL in einem Artikel über die Forschungsergebnisse: Schädlinge, Parasiten und Krankheitserreger könnten überwacht werden, letztere beispielsweise im Hinblick auf eine mögliche Epidemie. Auch Allergene lassen sich so schnell nachweisen.

»Schnell« ist dabei ein nicht unwichtiger Vorteil der neuen Forschung, denn das Team hat es geschafft, die Zeit erheblich zu verkürzen, die es braucht, um DNA aus der Luft zu isolieren – und damit analysierbar zu machen.

Falls sich jemand fragt, wie die DNA denn überhaupt in die Luft kommt: Kot und Urin, abgestorbene Hautzellen und Speichel (wer sich noch an COVID erinnert: Aerosole!) enthalten auswertbares Material in ausreichenden Mengen. Die Forschenden waren selbst überrascht, wie viel Material sie fanden. Der Leiter der Forschungsgruppe an der UF, David Duffy, sagt in einer Veröffentlichung der Universität zu der Studie: Als wir anfingen, schien es schwierig, große und intakte DNA-Fragmente aus der Luft zu gewinnen. Aber das ist nicht der Fall. Wir finden tatsächlich eine Menge informativer DNA.

DNA ist überall. Und alles ist DNA. Der in Florida entwickelte Apparat fand Spuren von allen möglichen Organismen, und die Forschenden sehen einen der vielen Einsatzzwecke in der Erfassung der Biodiversität, also der Artenvielfalt. In Zeiten, in denen das Artensterben rapide voranschreitet, lassen sich so Veränderungen schnell und einfach ermitteln.

Allerdings erlaubt die Methode auch Einblicke, die Menschen und Menschengruppen und ihr Verhalten betreffen, beispielsweise genetische Demographie, oder den Nachweis von Cannabis, Schlafmohn und psychoaktiven Pilzen, den der SPIEGEL-Artikel betont. In den falschen Händen können solche Informationen zu Diskriminierung oder sogar Kriminalisierung führen. (Auch wenn Haschisch im April ’24 legalisiert wurde – die Merz-Regierung hatte angekündigt, dies »umgehend« rückgängig zu machen. Das hat sie zwar bislang nicht umgesetzt, aber im kommenden Herbst sollen die Auswirkungen der Freigabe evaluiert werden. Da ist also das letzte Wort noch nicht gesprochen.)

Aus diesem Grund sagt Duffy in einem Beitrag der Universität zum Thema menschliche DNA in der Umwelt, dass es zwingend notwendig sei, ethische Richtlinien aufzustellen: Because of the ability to potentially identify individuals, the researchers say that ethical guardrails are necessary for this kind of research.

Auch in der aktuellen Studie betont das Team die Notwendigkeit von Kontrollen: Targeted policies are required, such as regulation of who should directly investigate human eDNA, when and where such investigation is conducted and what approvals are needed. Regelungen also, wer wann und wo solche Untersuchungen durchführen darf, und welche Genehmigungen dafür benötigt werden.

Und übrigens, die Idee, das neue Gerät mit dem Science-Fiction-Tricorder zu vergleichen, stammt von dem Uni-Team selbst: These findings reveal that we are closer than ever to the realization of a near real-time air-based lifeform detection device, as envisaged by Star Trek’s tricorder.

Gut gegen Dunkelflauten
Stromspeicher im hohen Norden

+

Die meisten werden inzwischen davon gehört haben, dass erneuerbare Energieerzeugung des öfteren Überschüsse produziert. Bisher müssen dann die Solarkollektoren und vor allem Windkraftwerke heruntergedrosselt (»abgeregelt«) werden. Das ist ärgerlich und kann sogar teuer werden. Wäre es nicht viel besser, den Überschuss zu speichern? In Schleswig-Holstein ist gerade eine Riesenbatterie für solche Zwecke in Betrieb gegangen.

Wir hatten hier ja in letzter Zeit häufiger über aufsehenerregende Forschungsergebnisse berichtet, über Batterien aus Beton und Ruß zum Beispiel oder solche auf der Basis von Natrium-Ionen – und dagegen ist die aktuelle Meldung auf den ersten Blick nicht so spektakulär. Aber wenn man genauer hinsieht, dann könnte man auf den Gedanken kommen, dass gerade einem der letzten verbliebenen Argumente der Fossil-Lobby das … na ja, sagen wir mal: das Öl abgegraben wird. Denn immer, wenn die Fakten allzu deutlich werden – nämlich, dass die Zukunft der Energiegewinnung in den Erneuerbaren liegt –, dann rufen die Mahner der Petro-Industrie laut: »Dunkelflaute! Energiesicherheit! Stromausfall! Zusammenbruch!« Und da ist natürlich eine enorme Batterie, die von Wind- und Solarenergie gespeist wird und über mehrere Stunden ganze Gemeinden mit Strom versorgen kann, ein echter Störenfried.

Für alle anderen, deren Lebensunterhalt nicht am Erdöl hängt, ist es eine erfreuliche und mutmachende Nachricht, dass gerade im schleswig-holsteinischen Bollingstedt eine weitere Riesenbatterie den Betrieb aufgenommen hat. Der SPIEGEL berichtete vor ein paar Tagen und schrieb: Rechnerisch soll der Speicher bis zu 170.000 Mehrpersonenhaushalte für zwei Stunden mit Ökostrom versorgen können. Die Anlage hat eine Leistung von 103,5 Megawatt sowie eine Speicherkapazität von 238 Megawattstunden, so die Betreiber.

Schon im vergangenen November hatte das Unternehmen ECO STOR das Projekt in einer Pressemitteilung vorgestellt und schrieb damals, Netzschwankungen erforderten gezielte Maßnahmen zur Stabilisierung. Der Batteriespeicher spielt hier eine zentrale Rolle, indem er Elektrizität in Zeiten hoher Wind- und PV-Produktion zwischenspeichert und bei hoher Nachfrage gezielt wieder einspeist.

Das ist, siehe die Einleitung dieser News, vor allem deswegen wichtig, weil bisher bei Schwankungen im Strombedarf immer die Photovoltaik- und Windenergie-Anlagen abgeregelt werden. Aus dem einfachen Grund, dass sie flexibler sind als die konventionellen, wie die Next Kraftwerke GmbH auf ihrer Website schreibt: Einer der Hauptgründe liegt vor allem in der fehlenden Flexibilität der konventionellen Kraftwerke. Sie können nicht schnell genug hoch- oder heruntergefahren werden, um auf die schwankende Verfügbarkeit erneuerbarer Energien wie in diesem Fall Solarkraft zu reagieren. Daher müssen flexible Anlagen, wie eben PV-Anlagen, abgeregelt werden, um eine Überlastung des Netzes zu verhindern.

Und: Ein weiterer Grund für die Abregelung von Solarenergie liegt in der Tatsache, dass an sehr sonnigen Tagen die installierten Anlagen teilweise ihre maximale Leistung erreichen. Dies führt zu einer Überkapazität an erzeugter Energie, die wir bislang noch nicht nutzen und auch nicht speichern können. Geschrieben wurde das im Mai 2024, und in dem einen Jahr ist die Branche offensichtlich einen großen Schritt weitergekommen. Denn es wird nicht bei dem Werk in Bollingstedt bleiben: Weitere Großspeicher sind schon in Planung.

Der SPIEGEL zitiert den Geschäftsführer von ECO STOR, Georg Gallmetzer, mit den Worten: Wir haben jetzt die Technologie, um wertvollen Sonnenstrom in die Abendstunden zu verschieben, Preise zu dämpfen und Strom aus Gas und Kohle weiter zu reduzieren.

Was im vergangenen November auch den Professor für Digitale Kommunikation, Autor des Buches »Männer, die die Welt verbrennen« und SPIEGEL-Kolumnisten Christian Stöcker zu einem Artikel mit der Überschrift Ein Batterie-Tsunami rollt heran inspirierte: Dieser Boom wird weitergehen, denn die Preise für Speicher und Photovoltaik sind weiterhin im freien Fall. Stöcker betont darin auch die Option für Privatleute, sich ein eigenes kleines Solarkraftwerk inklusive Speicher zu installieren: Man kann sich im Moment ein Balkonkraftwerk samt Wechselrichter für weniger als 200 Euro zulegen. Eine Heimbatterie mit gut 10 Kilowattstunden Speicherkapazität gibt es mittlerweile ab 1500 Euro, mancherorts für noch weniger. Wer es richtig anstellt und die baulichen Möglichkeiten hat, kann auch hierzulande von Mai bis September schon jetzt seine laufenden Stromkosten auf nahe null senken, nur mit Solarstrom und Speicher.

Im Großen wie im Kleinen sind das gute Nachrichten für alle, denen daran gelegen ist, endlich von Erdöl, Gas und Kohle loszukommen.

Strom aus Salz – naja, fast

+

Batterien basieren heute häufig auf Lithium-Ionen. Eines der Probleme dabei: Lithium ist relativ selten, der Abbau belastet die Umwelt. Und auch die Entsorgung ist problematisch. Aus China, dem Land, das momentan wohl als führend gelten darf bei der Entwicklung neuer Methoden für die Stromgewinnung und -speicherung, kommt jetzt eine Alternative, die offensichtlich bereits Marktreife erreicht hat: eine Batterie auf Natrium-Ionen-Basis. Kurz im Gedächtnis gekramt und an die Chemie-Schulstunden erinnert: Natrium ist ein Bestandteil von Kochsalz – daher die Überschrift.

CATL ist ein großes chinesisches Unternehmen und aktuell Batteriemarktführer. Ende April hat die Firma bei einer großen Automesse in Shanghai ein neues Modell vorgestellt: Naxtra ist schon die zweite Generation von Natrium-Ionen-Batterien, 2021 hatte CATL ein erstes Modell präsentiert. In den vier Jahren ist viel passiert, denn Naxtra ist laut Hersteller die erste serienreife Natrium-Ionen-Batterie der Welt und so ausgereift, dass Ende dieses Jahres die Massenfertigung beginnen soll.

Die entscheidenden Vorteile von Natrium beschreibt die Website Next Mobility so: Natrium sei ein Element, das im Salz der Erde fast unbegrenzt verfügbar ist und für einen Bruchteil der Kosten gefördert werden kann.

Das Magazin auto motor und sport ergänzt in einem Bericht, dass Natrium-Batterien in Zukunft deutlich günstiger sein dürften. Und weiter: Natrium soll zudem im Gegensatz zu Lithium sicherer und kälteresistenter sein.

Auf der Website ingenieur.de, laut Eigenwerbung Jobbörse und Nachrichtenportal für Ingenieure, heißt es zum Thema Sicherheit: Natrium ist günstiger und weit verbreitet. Außerdem neigt es weniger dazu, bei Beschädigung zu brennen oder zu explodieren. CATL demonstrierte dies mit mehreren Tests: Nadeln, Bohrer und sogar Sägeblätter konnten der Batterie nichts anhaben. Es kam zu keiner Entzündung.

Die Naxtra-Batterie kann mit 5C aufgeladen werden, also dem Fünffachen der Kapazität. Was konkret bedeutet: In nur zwölf Minuten wäre sie vollständig geladen, zumindest theoretisch. Reine E-Autos könnten damit bis zu 500 Kilometer weit kommen. Und was die Kälteresistenz angeht, die auto motor und sport angesprochen hat – dazu schreibt ingenieur.de: Selbst bei minus 30 Grad Celsius kann die Batterie innerhalb von 30 Minuten von 30 auf 80 % geladen werden. Und bei –40°C funktioniert das System immer noch zuverlässig – ein Wert, den klassische Lithium-Ionen-Systeme oft nicht erreichen.

Gao Huan, Cheftechniker von CATL, kündigte bei der Vorstellung an, dass die Natrium-Ionen-Akkus vom kommenden Dezember an in großen Stückzahlen gefertigt werden sollen. Gut möglich, dass auch das Werk im thüringischen Arnstadt bei Erfurt dafür herangezogen wird, das der chinesische Konzern seit Ende 2022 betreibt.

Wer sich von englischen Texten nicht abschrecken lässt, mag vielleicht ergänzend auch die Pressemitteilung des Konzerns lesen.

Kindgerecht in Gänsefüßchen

+

»Gänsefüßchen« ist ein schöner Begriff, anschaulich (wenn man genau hinsieht, dann haben die im Französischen Guillemets genannten kleinen Pfeilspitzen und nämlich wirklich Ähnlichkeit mit den Füßen der Gans) und kindgerecht. Nicht schön ist aber, wenn man das Attribut kindgerecht im Zusammenhang mit Online-Angeboten für Kinder in solche Gänsefüßchen setzen muss – weil sie es tatsächlich gar nicht sind. Das ist häufiger der Fall, als man glauben möchte.

Prof. Dr. Veelasha Moonsamy forscht seit Jahren zu Online-Tracking, Datenströmen, Nutzerprofilen und »targeted advertising«, also Werbung, die ganz gezielt auf die Empfänger zugeschnitten ist. Das klappt inzwischen ja »hervorragend« (ja, auch hier sind Gänsefüßchen angebracht, denn dass es klappt, hat ja viel mit ständiger Online-Überwachung zu tun). In einem ganz speziellen Bereich fällt die Trefferquote allerdings extrem niedrig aus: bei Websites und Apps für Kinder.

Momentan betreibt Veelasha Moonsamy ihre Forschung an der Ruhr-Uni Bochum, kurz RUB. Dort leitet sie den Lehrstuhl Security & Privacy of Ubiquitous Systems, also zur Sicherheit und Privatsphäre bei allgegenwärtigen Systemen, was letzlich bis zum Internet of Things (IoT) reicht. Und sie arbeitet im Exzellenzcluster CASA (Cybersicherheit im Zeitalter großskaliger Angreifer).

Für eine aktuelle Untersuchung haben sich Moonsamy und ihr Team mit Forscher*innen der niederländischen Radboud-Universität und der belgischen Universität KU Leuven zusammengetan. Sie erstellten einen Datensatz aus rund 2.000 Webseiten, die speziell an Kinder unter 13 Jahren adressiert waren, zum großen Teil Lernplattformen. Dann luden sie die Werbung von diesen Seiten herunter – insgesamt 70 000 Dateien, zum einen deswegen so eine große Zahl, weil viele Seiten mehrere Werbebanner enthielten, zum anderen weil die Forschenden jede Seite mehrmals besuchten. Denn in aller Regel werden beim Reload neue Anzeigen platziert.

Und jetzt kommt’s: Einerseits setzten fast drei Viertel der Anzeigen Tracking-Cookies, die die minderjährigen Nutzer*innen über verschiedene Websites hinweg nachvollziehbar und identifizierbar machen und so ermöglichen, Persönlichkeitsprofile zu erstellen. Etwas, dem man laut DSGVO eigentlich zustimmen müsste, was Kinder aber laut Artikel 8 DSGVO nicht können, das müssten also eigentlich die Eltern tun. Eigentlich.

Andererseits, und das ist mindestens genauso bedenklich, stellten die Forscher*innen fest, dass viele der Inhalte unangemessen waren. Es war eine bunte Mischung mit einigen alarmierenden Inhalten, sagt Veelasha Moonsamy. In dem Artikel wird zum Beispiel der Screenshot einer Mathe-Aufgabe für Kinder der dritten Klasse gezeigt; ein fröhliches Monster will die Ergebnisse wissen für 12 × 5, 7 × 6 und 17 × 2. Und daneben fragt ein Werbebanner: Are you gay? Take the test now!

Es gab auch Tests auf Depression, Werbung für Sexspielzeug, Dessous, Abnehm-Medikamente, Dating-Plattformen und Chat-Angeboten, die Frauen in anzüglicher Kleidung und Pose zeigten.

Kindgerecht? Nein, streng genommen nicht mal »kindgerecht«!

Dabei dürfen – noch mal das vertrackte Wort: eigentlich – seit dem 17. Februar 2024, an dem auch die letzten Bestimmungen des Digital Services Act der EU in Kraft getreten sind, Anbieter keine Werbung auf der Grundlage von Profiling […] unter Verwendung personenbezogener Daten ausspielen, wenn sie hinreichende Gewissheit haben, dass der betreffende Nutzer minderjährig ist. Was ja mindestens bei Drittklässler-Lernplattformen gegeben sein dürfte. Aber – wer kontrolliert und regelt das? Der Werbevermarkter, der den Pool an Anzeigen verwaltet? Oder die Webseitenbetreiberin, die Teile ihrer Seite als Anzeigenflächen vermietet? Das ist derzeit ungeklärt, schreibt die RUB.

Dass sich an der bestehenden Praxis zeitnah etwas ändert, glaubt Veelasha Moonsamy nicht. Aber: Abhilfe schaffen können sogenannte Ad-Blocker, rät sie. Diese Tools verhindern, dass die Inhalte von Werbebannern angezeigt werden. Und das heißt: Die Eltern sind gefragt, aktiv zu werden und zum Beispiel solche Ad-Blocker auf den Geräten ihrer Kinder zu installieren. Immerhin machen die Großen tagein, tagaus ganz ähnliche Erfahrungen im Netz. Wenn dann das nächste Mal wie von Geisterhand in den Sozialen Medien die passende Werbung zur Google-Suche vom Vortag angezeigt wird, erinnern wir uns vielleicht daran, dass es im Internet nichts wirklich umsonst gibt, hofft die RUB.

Wawas Mupfel als Plastikersatz?

+

Millennials werden es vielleicht gerade noch kennen, Zoomer wahrscheinlich eher nicht: Das Urmel ist ein Wesen, geboren aus einem Ei, das Jahrmillionen im ewigen Eis konserviert war. Möglicherweise ist es das Verbindungsglied zwischen Dinosauriern und Säugetieren. Äh, ach so: und es ist die Hauptfigur einer Kinderbuchserie von Max Kruse. Urmels Freund Wawa, der Waran, lebt in einer Riesenmuschel, die Ping, der Pinguin, wegen eines Sprachfehlers »Mupfel« nennt. Und damit sind wir endlich bei der seltsamen Headline angelangt: Muscheln könnten nämlich in Zukunft als Ersatz für synthetische Kunststoffe dienen.

Wer bis heute noch nicht mitbekommen hat, dass Plastik ein gewaltiges Problem für die Umwelt und alle Lebewesen auf diesem Planeten darstellt, hat vermutlich die vergangenen Jahrzehnte unter einem Stein gelebt, wie es so schön in einem englischen Idiom heißt. Meeresbewohner haben ganze Plastikmüllhalden im Magen und verhungern oder ersticken daran, und die größte Plastikansammlung im Ozean, das Great Pacific Garbage Patch, umfasst anderthalb Millionen Quadratkilometer (mehr als viermal die Fläche Deutschlands) und wiegt irgendwas zwischen 45 000 und 130 000 Tonnen (eine Tonne sind tausend Kilo, Autos wiegen heute zwischen einer und drei Tonnen). Auf der Website der Müllsammel-App sweepAR findet sich diese Schätzung: Statistiken zufolge landet alle 5 Sekunden eine Tonne Plastik in den Gewässern.

Eines der größten Probleme dabei: Plastik besteht in der Regel aus fossilen Grundstoffen (Erdöl) und ist unverwüstlich. Es verrottet extrem langsam (Eine dünne Plastiktüte braucht rund 10 bis 20 Jahre, eine Chipstüte etwa 80 Jahre und PET Flaschen können bis zu 500 Jahre brauchen, bis sie abgebaut sind, heißt es in dem sweepAR-Artikel) und zerfällt zu mikroskopisch kleinen Teilchen, dem sogenannten Mikroplastik, das mittlerweile auch im Blutkreislauf von uns Menschen zirkuliert, ohne dass wir wirklich wissen, was es dort für Schäden anrichtet; zumindet besteht die Möglichkeit, dass es zu Entzündungen in den Blutgefäßen und damit, in letzter Konsequenz, zu Herzinfarkt führen kann; das hat ein Marburger Forschungsteam herausgefunden.

Allerhöchste Zeit also, der Plastikflut ein Ende zu bereiten. Und da scheint es gute Nachrichten zu geben.

USC Researchers Develop Plastic Substitute from Mineral Found in Seashells titelte vor einem Monat die USC Viterbi, die School of Engineering an der University of Southern California. Biomedizin-Ingenieure der USC Viterbi haben ein neues biokompatibles Material geschaffen, das sicher für marine Lebensformen ist und Mikroplastik verhindert, schreiben sie in dem Artikel.

Darin wird auch die Leiterin der Forschungsgruppe, die Mikrobiologin und Medizintechnik-Professorin Eun Ji Chung, zitiert: Ich fing an, darüber nachzudenken, wie auch in unserem Labor alles aus Einwegplastik besteht, weil alles steril sein muss. Sie erinnerte sich an ihre Studienzeit, während derer sie mit Kalzium-Partikeln biologisch abbaubares Material hergestellt hatte. Ich begann mit dem Gedanken, dass Seemuscheln auch aus Kalzium bestehen. Deswegen sind sie so hart wie Knochen. Also übernahm ich im Grunde, was ich schon gemacht hatte, und reproduzierte es in einer Weise, die es für die Herstellung von Plastik geeigneter machte.

Ihr Team kombinierte dazu das Polymer 1,8-octanediol-co-citrate mit Kalziumkarbonat aus Seemuscheln. Das so erzeugte Material ist wesentlich schneller und biologisch unbedenklich abbaubar und hat trotzdem die Stabilität von herkömmlichem Kunststoff. Das Team testete außerdem unter anderem auch die Wirkungen des neu geschaffenen Materials auf andere Meereslebewesen – mit dem Ergebnis, dass diese durch den Fremdstoff in keiner Weise beeinträchtigt wurden.

In einer ersten, vorsichtigen Einschätzung sieht Chung bereits viele potenzielle Verwendungsmöglichkeiten, wie zum Beispiel in der Herstellung von Strohhalmen, die stabiler als solche aus Bambus und Papier, aber sicherer und umweltverträglicher als Metallröhrchen sind.

Momentan arbeitet das Labor in einer zweiten Forschungsstufe daran, das Material noch schneller abbaubar zu machen.

Zum Weiterlesen hier noch ein paar Links zu früheren Forschungen an Plastik-Alternativen:

Quantennetzwerk mit Standardkabel

+

Das Internet der Zukunft basiert auf Quantenkommunikation, da sind sich so ziemlich alle einig. Bislang ist der Transport quantenverschlüsselter Information allerdings noch mit hohem Aufwand verbunden. Das ändert sich aber möglicherweise gerade grundlegend.

Einer der bisherigen Entfernungs-Rekorde beim Verschicken von Quantensignalen stammt aus dem Jahr 2018 und lag bei 421 Kilometern. Allerdings nur unter Spezialoptimalidealbedingungen: The setup uses an ultralow-loss (ULL) optical fiber, an electro-optical system with a high repetition rate (2.5 GHz), and a low-noise detection unit based on superconducting nanowire single-photon detectors (SNSPDs). (Sehr) frei übersetzt bedeutet das

  • spezielles, superverlustfreies Glasfaserkabel,
  • hohe Übertragungsfrequenz im Gigahertz-Bereich, und
  • Empfangsteil aus SNSPDs, den momentan schnellsten Photonenzählern, die es gibt,

sonst wird das nichts. Außerdem kühlte das Team seinerzeit die Empfänger (präziser: Photonen-Detektoren) auf –272,35 °C (0.8K) und einen dem übertragenden Glasfaserkabel vorgeschalteten Filter auf –233,15 °C (40K).

Aus den Spezifikationen lässt sich auch mit Laienverstand ablesen, dass ein hoher Aufwand erforderlich ist, um Quantensignale zu verschicken. Oder besser gesagt: war!

Forscher von Toshiba haben jetzt nämlich erstmals erfolgreich Quantenkommunikation über ein herkömmliches Setup durchgeführt. Zwischen Frankfurt am Main und Kehl haben sie ein Quantennetzwerk über gewöhnliches Glasfaserkabel errichtet, 250 Kilometer lang.

Toshiba hatte schon 2021 einen Übertragungsrekord auf einer Länge von 600 Kilometern aufgestellt, seinerzeit aber noch mit speziell und aufwendig präpariertem Glasfaserkabel.

Der jetzige Einsatz eines regulären Netzwerks ist also tatsächlich spektakulär, denn die Forschungsergebnisse brächten die sichere Quantenkommunikation näher an die kommerzielle Verwertung, wie ein SPIEGEL-Artikel von vor zwei Wochen Jens Eisert, Berliner Professor für theoretische Physik, zitiert. Im selben Bericht schreibt Autor*in msk weiter: Der Versuch zeige, dass Quantenkommunikation über bestehende Infrastruktur möglich sei, heißt es in einer Pressemitteilung.

Das Forscherteam erwähnt in seinem Nature-Beitrag zu dem Thema auch, dass das System eine encryption key distribution at 110 bits per second erreicht habe, was auf den ersten Blick und im Vergleich mit den aktuellen 10 Gbit/s des 5G-Mobilfunkstandards nicht allzu beeindruckend ist, aber der oben erwähnte Jens Eisert nannte die Übertragungsrate immerhin respektabel.

Für alle, die bis hierhin gelesen und sich die ganze Zeit gefragt haben: Wat soll dit Janze?! Das haben wir mit einem Beitrag im März zu erklären versucht. Ein tl;dr könnte lauten: Quantensysteme sind abhörsicher. Also keine unwichtige Forschung, die hier betrieben wird.

Stromspeicher aus Ruß und Beton

+

Die Merz-CDU will zwar Atomkraftwerke wieder in Betrieb nehmen, die schon längst stillgelegt wurden, aber selbst die Betreiber sagen: Das ist der falsche Weg. Richtig und unausweichlich ist, dass sich die weltweite Energieerzeugung immer mehr auf Erneuerbare verlagert. Sonne und Wind sind hier die unangefochtenen Spitzenreiter, und das wird wohl auch so bleiben – aber im Bereich der nachhaltigen Stromerzeugung und -speicherung tun sich immer wieder neue, spannende Dinge. Vor anderthalb Wochen hatten wir hier über stromerzeugende Pilze berichtet, heute geht’s um Speicher aus mit Ruß versetztem Beton.

Vorweg sei gesagt: Ja, Beton ist ein Umweltsünder. Denn bei der Herstellung von einer Tonne Zement werden rund 700 Kilo CO₂ freigesetzt, erklärt das Wissenschaftsmagazin Spektrum in einem Artikel zum Thema. Sechs Prozent der globalen Kohlendioxidemissionen bläst die Zementindustrie in die Luft. 6 % klingt erstmal gar nicht so viel, aber wenn man sich klar macht, dass der internationale Flugverkehr am Treibhausgas-Ausstoß der EU 2022 nur etwas mehr als 3 % Anteil hatte, sieht die Sache schon etwas anders aus.

Trotzdem ist auf absehbare Zeit keine Alternative in Sicht, denn Beton bildet, so schreibt es Spektrum im oben verlinkten Artikel, die Grundlage der Welt des 21. Jahrhunderts. Es werden auch in Zukunft Häuser, Brücken, Staudämme und vieles andere gebaut, und der Werkstoff aus Zement, Wasser, Sand und Kies wird auch in Zukunft dafür gebraucht werden.

Nur – er kann dann bald wenigstens auch etwas Positives zu seiner Umweltbilanz hinzufügen. Und das auf bestechend einfache Weise.

Franz-Josef Ulm forscht am Massachusetts Institute of Technology (MIT) im amerikanischen Cambridge seit ein paar Jahren an Kondensatoren (also schnell ladbaren Energiespeichern) aus Beton; schon im November 2023 hatte das ZDF darüber berichtet.

Für Ulm ist die große Verbreitung des Materials eine der Inspirationen für seine Forschung; er nennt Beton das wahrscheinlich demokratischste Material der Welt. Und er erklärt auch im ZDF-Interview, wie die Kombination aus Beton und Ruß einen Stromspeicher ergeben kann: Zement ist hydrophil, liebt Wasser. […] Ruß im Gegensatz hasst Wasser […] wenn man Ruß ins Wasser gibt, klumpt er sich zusammen und wird von Kräften aus dem Wasser gehalten. Beim Anmischen von Beton bilden sich zahllose Hohlräume, in die sich der sozusagen »wasserflüchtige« Ruß absetzt und so ein Netz bildet, das an Adern oder Bronchien erinnert.

Nicht die gesamten Wände von, zum Beispiel, einem Hausneubau werden so bearbeitet, sondern die Forscher stellen kleine Scheiben des Materials her. Je zwei davon bilden einen Kondensator; in die Mitte kommt – kein Witz! – Zeitungspapier als Trenn-Membran. Die eine Lage Rußbeton wird positiv, die andere negativ geladen, und: voilà. Ein kleiner Kondensator, der aussieht wie ein Oreo-Keks, ist fertig.

Und jetzt kommt wieder die Hauswand ins Spiel: Diese Super-Kondensatoren lassen sich nämlich beliebig stapeln. Und zum Beispiel als Stützen oder Säulen in Wänden verbauen.

Franz-Josef Ulms Neffe Simeon ist von der Idee ebenso begeistert wie sein Onkel. Er hat für seine Masterarbeit im Studiengang Bauingenieurwesen an der Uni Coburg vor gut zwei Monaten einen solchen Superkondensator gebaut, über den das Architekturblatt berichtete. Kondensatoren haben gegenüber Akkus und Batterien ziemlich viele Vorteile: geringe Kosten, keine bedenklichen Chemikalien, fast unbegrenzte Lebensdauer und sehr kurze Ladezeiten. Das Handy könnte so in Sekunden laden. Ein E-Auto in Minuten, heißt es in dem Artikel.

Vor drei Wochen hat auch der Bayerische Rundfunk das Thema aufgegriffen und Simeon Ulm zitiert: Das ist sicher der erste Beton-Superkondensator Deutschlands! Allerdings braucht es zur Serienreife noch einige Zeit. Momentan bringen die Platten eine 10 Watt-Lampe 25 Minuten zum Leuchten, heißt es in dem Beitrag. Und: In frühestens fünf bis zehn Jahren könnte eine erste stromspeichernde Betonplatte in einem Haus zum Einsatz kommen, sagt Professor Markus Weber, Ulms Coburger »Master-Vater«. Er hat die Arbeit des Studenten betreut und will sich auch in Zukunft mit dem Thema beschäftigen, zusammen mit seinem Team, weiteren Forschenden der Hochschule Coburg und dem »Onkel aus Amerika« und dessen MIT.

»Ich muss noch eben die Batterie füttern!«

+

In der Schweiz wird gerade etwas entwickelt, das unseren Umgang mit Energie potenziell stark verändern könnte. Ganz vereinfacht ausgedrückt, könnte man sagen: Pilze machen Strom. Klingt interessant? Ist es auch!

Es gibt die Redewendung »den Teufel mit dem Beelzebub austreiben«, was soviel bedeutet wie: etwas Übles mit etwas anderem verhindern, das selbst auch übel ist. Die Energieversorgung moderner Staaten steht vor einem solchen Dilemma. Denn der dringend notwendige Ausstieg aus den fossilen Energieträgern Öl, Gas und Kohle bedeutet einen stark erhöhten Bedarf an elektrischer Energie. Die wiederum muss gespeichert werden, und zwar in Batterien. Die wiederum sind leider auch problematisch: Für die Herstellung braucht es seltene Erden und andere endliche Rohstoffe, deren Gewinnung oft umweltschädlich und gesundheitsbelastend ist. Und auch ihre Entsorgung nach abgelaufener Lebensdauer verursacht Umweltbelastungen.

Wie wäre es, wenn man Batterien aus nachwachsenden, organischen Rohstoffen herstellen könnte? Die sich nach Gebrauch kompostieren lassen?

Die gute Nachricht lautet: Genau daran forschen Entwickler in der Schweiz. Gerade vorgestern berichtete die Tagesschau und schrieb auf ihrer Website: Eine Bio-Batterie aus Pilzen – ungiftig, biologisch abbaubar und aus dem 3D-Drucker. Gemeint sind allerdings nicht die guten, alten Champignons, wie sie gern ins Gulasch oder auf die Pizza geschnitten werden. Sondern, einerseits, Hefepilze in einer Nährlösung, die den Minuspol (die Anode) bilden. Und, andererseits, ein Weißfäulepilz mit dem fast schon poetischen Namen »Samtige Tramete«, aus dem der Pluspol (die Kathode) besteht. Pilze sind erstaunliche und weithin unterschätze Lebewesen, näher mit Tieren als mit Pflanzen verwandt, wie der Schweizer eidgenössische Bundesrat in einem Artikel über diese neue Forschungsrichtung schreibt.

Schon im Januar hat der Schweizer Radiosender SRF 1 über diese Forschung berichtet und dafür auch einen der beteiligten Wissenschaftler interviewt. Gustav Nyström ist seit Juni 2019 Leiter der Abteilung »Cellulose & Wood Materials« an der Eidgenössische Materialprüfungs- und Forschungsanstalt, kurz Empa. Er forscht dort an unterschiedlichen unkonventionellen Materialien, zum Beispiel Batterien aus Papier und Sensoren aus Nanozellulose. Aktuell scheint aber der Einsatz von Pilzen besonders vielversprechend.

Im SRF-1-Interview erklärt er die Funktionsweise seiner Batterien: Die Bio-Pilzbatterie basiert darauf, dass die Pilze beim Fressen Energie umwandeln. Wir füttern die Pilze mit einer Hefenährlösung, wodurch beim Verdauungsprozess Elektronen freigesetzt werden. Die freigesetzten Elektronen können Spannung aufbauen und Strom erzeugen. Der Vorteil liegt klar auf der Hand: Die Pilzbatterie ist eine lebendige Batterie, die fast ausschliesslich aus organischem Material basiert. Das macht sie besonders umweltfreundlich.

Alle, die jetzt vor ihrem inneren Auge ein pilzbetriebenes Kraftwerk sehen, dass den Strombedarf von Hamburg, Frankfurt oder München deckt, muss der Forscher allerdings enttäuschen: Pilzbatterien sind kein Ersatz für Standard-Batterien, wie sie beispielsweise für Handys oder Elektroautos verwendet werden. Für Geräte mit grossem Energieverbrauch sind Pilzbatterien nicht geeignet. Dafür ist der Energiegewinn zu klein. Trotzdem ist die Forschung sinnvoll und eröffnet neue Perspektiven, denn: Auch kleine elektronische Geräte sind in unserem Alltag weit verbreitet. […] Batterien einfacherer Systeme werden […] leider nicht immer konsequent entsorgt und landen teilweise im normalen Abfall oder sogar in der Natur. Bei herkömmlichen Batterien ist das ziemlich schädlich für die Umwelt.

Sprich: Alles, was nur eine geringe Leistungsaufnahme erfordert, kann in Zukunft mit solchen bio-organischen Stromerzeugern ausgestattet werden. Nyström nennt als Beispiele kleine Sensor-Systeme in der Landwirtschaft oder auch in der Umweltforschung, und Anwendungen in der Biomedizin. Sicherlich gibt es da noch einiges mehr, und Nyströms Kollegin, die Mikrobiologin Carolina Reyes, nennt in der Schweizer Technischen Rundschau, die sich in einem längeren Artikel ausführlicher mit der zugrundeliegenden Technik beschäftigt, noch einen weiteren großen Vorteil ihrer Entwicklung: Man kann die Pilzbatterien in einem getrockneten Zustand aufbewahren und am Einsatzort einfach durch die Zugabe von Wasser und Nährstoffen aktivieren.

Fast wie Magie.

Auch wenn der Einsatzbereich vergleichsweise eingeschränkt ist: Ein bisschen klingt die neue Technologie wie die Suche der Alchemisten nach einer Methode, unedle Metalle in Gold zu verwandeln. Und das sogar biologisch abbaubar.

Quantenverschlüsselung – was, warum, wie?

+

Die meisten Menschen denken wahrscheinlich, wenn sie »Quantenmechanik« oder »Quantenphysik« hören, im besten Fall an »Schrödingers Katze« oder einfach: »Och nee, zu kompliziert!« Und ja, da ist was dran; auf einem Bierdeckel – wie es der zukünftige Bundeskanzler Friedrich Merz mal für die Steuererklärung geplant hatte – lässt sich dieser Bereich der Physik nicht darstellen. Aber die Steuererklärung ja auch nicht. Also, tauchen wir ein. Für Verschlüsselung wird die Technologie nämlich aktuell immer wichtiger. Und die Uni Karlsruhe hat jetzt eine Testanlage für Quantennetzwerke eröffnet.

Wir hatten hier ja kürzlich über den »Change your Password Day« berichtet und dabei auch die Wichtigkeit guter Passwörter betont. Aber selbst gute Passwörter, die mit herkömmlichen Computern nicht knackbar sind, können durch Quantencomputer angreifbar werden. Denn Quantencomputer sind um ein Vielfaches schneller als die bisherigen Rechner. Das liegt an einer grundsätzlichen Besonderheit.

Den Allermeisten ist wohl die den momentan verbreiteten Computern zugrundeliegende digitale Funktionsweise geläufig: Sie basiert auf den beiden Zuständen »aus« und »an«, anders gesagt den Binärzahlen oder Bits »0« und »1«. In Quantencomputern aber können Teilchen (die hier Qubits heißen) sowohl »aus«, als auch »an« sein – und alles dazwischen. Wie im berühmten Beispiel der Katze, die in einer geschlossenen Box entweder tot oder lebendig oder beides sein kann, bis jemand in den Kasten guckt.

Für einen Rechner, der auf der Basis dieses Prinzips mit Qubits arbeitet, bedeutet das vor allem eins: wesentlich höhere Verarbeitungsgeschwindigkeiten. Ein Wikipedia-Artikel drückt es so aus: Quantenalgorithmen könnten die Berechnungszeit für viele mathematische und physikalische Problemstellungen deutlich verringern. Wehalb sie […] bestimmte Probleme der Informatik, z. B. die Suche in extrem großen Datenbanken […] effizienter lösen können als klassische Algorithmen. Und auch das Knacken von Verschlüsselung.

Seit Mitte der Achtzigerjahre wird intensiv an der sogenannten Quantenkryptographie geforscht. Sie wendet die eben erwähnten Quantenalgorithmen auf die Verschlüsselung von Daten an. Das grundlegende Prinzip dafür ist der Quantenschlüsselaustausch, der es erlaubt, Nachrichten abhörsicher zu übertragen.

Schon 2004 wurde in Wien erstmals ein quantenkryptographisch verschlüsselter Geldtransfer durchgeführt; eines der Probleme allerdings ist, dass beim Einsatz von Glasfaser als Signalträger die Entfernung zwischen Sender und Empfänger begrenzt ist. Aber auch hier geht die Forschung unermüdlich weiter: 2018 wurden schon über 420 Kilometer Streckenlänge erreicht (und per Satellit sind weit größere Entfernungen realisierbar, weil das Vakuum im All die Photonen, also die Informationsträger, kaum schwächt).

Das Karlsruher Institut für Technologie (KIT) hat im Januar eine 20 Kilometer lange Glasfaser-Teststrecke eingeweiht, auf der die Quantenschlüsselverteilung getestet und weiterentwickelt werden soll. Solche Quantenschlüssel sind entscheidend für eine abhörsichere Kommunikation, da sie auf physikalischen Gesetzen basieren und nicht wie bisherige Schlüssel auf mathematischen Annahmen, die mit künftigen Quantencomputern gebrochen werden können. Mit der Forschung soll die Reichweite von Quantenkommunikation erweitert werden und die Verknüpfung von Quantencomputern ermöglicht werden.

Der deutsche Anbieter für komplett verschlüsselte E-Mails Tuta (früher: Tutanota) bietet schon seit dem 11. März 2024 quantensichere Verschlüsselung für E-Mails und den Kalender an (mit Unterstützung der Leibniz Universität Hannover) und ist damit momentan noch Vorreiter. Aber auch der Schweizer Secure-Mail-Provider ProtonMail arbeitet laut einem eigenen Reddit-Post daran, quantenresistente Verschlüsselungsalgorithmen in OpenPGP zu standardisieren.

Dass diese Forschung für die Datensicherheit von größter Bedeutung ist, darüber sind sich alle Beteiligten einig. Vor zwei Monaten berichtete DER SPIEGEL über die Karlsruher Glasfaserstrecke und zitierte dabei auch das Bundesministerium für Bildung und Forschung: Quantenkommunikation ist eine Schlüsseltechnologie für zukünftige Sicherheit in der Datenübertragung. Sie kann sowohl vor Attacken mittels moderner Computer als auch durch leistungsstarke Quantencomputer schützen. Und: Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) wird die Bedrohung der Informationssicherheit durch Quantencomputer weithin unterschätzt.

SAP: Alles ist KI

+

Das Anlagen-Magazin Der Aktionär nennt es den »KI-Hammer«, das Handelsblatt ist erwartungsgemäß nüchterner und titelt: »SAP präsentiert KI zur Optimierung von Geschäftsprozessen«. Kundenbindung, Automatisierung, Stärkung der »Position als zentraler Anbieter für KI-Lösungen im Geschäftsumfeld«, und dabei soll immer gelten: »AI first«. Was steckt hinter dem neuen Ansatz?

Michael Ameling ist erst seit diesem Februar, also ein paar Tage, neues Mitglied im erweiterten SAP-Vorstand. Er sagt, die neue Plattform Business Data Cloud sei ein hochqualifizierter Übersetzer für Unternehmensdaten. Und Konzernchef Christian Klein hatte schon im Januar die Devise AI first ausgegeben und angekündigt, SAP werde seine Investitionen in Künstliche Intelligenz signifikant erhöhen. Konkret investiert SAP drei Milliarden Euro in Umschulungen und die Schaffung neuer Stellen rund um künstliche Intelligenz, schrieb das Magazin ComputerWeekly vor rund einem Monat.

In einer eigenen Pressemitteilung schrieb das Unternehmen vor zwei Wochen, die Business Data Cloud sei eine wegweisende Lösung, die alle SAP- und Drittdaten in einem Unternehmen zusammenführt. Weiter heißt es: Die Lösung harmonisiert Daten aus den geschäftskritischen Anwendungen von Unternehmen mit Funktionen für Data Engineering und Geschäftsanalysen. Dies ermöglicht tiefere Einblicke in ein Unternehmen und fördert Innovationen.

Okay, aber was heißt das konkret? Martin Bayer versuchte sich vor zwei Wochen für die Computerwoche an einer Zusammenfassung: SAP wolle aus Prozessen, Daten und KI einen Dreiklang herstellen, zitiert er den amerikanischen SAP-CRO Jan Gilg. Der Ansatz sei ein ähnlicher wie bei der schon lange erfolgreichen und beliebten Business Suite, nämlich: Sämtliche Applikationsmodule sind von Haus aus miteinander verzahnt und integriert. Prozessketten lassen sich damit komplett abdecken. Übertragen auf die neue Cloud Business Suite bedeute das, dass wieder ganze Prozessketten der Anwender in dem neu integrierten Paket abgebildet werden könnten.

Neben den Prozessen sollen auch Daten künftig in der Business Data Cloud (BDC) einsortiert werden. Heute betrieben Firmen oft enormen Aufwand damit, unterschiedliche Datenquellen zusammenzubringen. CPO Michael Ameling erklärt, dass die BDC dafür sorgt, dass alle diese Daten nahtlos zusammen bearbeitet und verstanden werden können. Und zwar unabhängig davon, ob die Daten von SAP-Systemen oder anderer Software erzeugt worden sind.

Die dritte Säule der neuen Strategie ist der Chatbot Joule. Der soll konsequent in sämtliche Anwendungen integriert werden. Oder, wie Christian Klein schon im vergangenen Sommer gegenüber der Computerwoche erklärte: Alles, was wir tun, enthält KI. Der SAP-CEO bezeichnete Joule als neues Frontend und User Interface für alle SAP-Anwendungen und schätzte seinerzeit, dass in Zukunft rund 80 Prozent der Aufgaben über Joule abgewickelt werden könnten.

Der Ansatz scheint logisch. Tatsächlich geht viel zu oft viel zu viel Energie und Zeit in die Vereinheitlichung und Konvertierung von Datensätzen. Zugleich ist die Initiative mit großer Wahrscheinlichkeit auch ein Versuch der größeren Kundenbindung, was nicht zuletzt angesichts neuer Mitbewerber im heiß umkämpften KI-Markt – wie zum Beispiel des chinesischen Start-ups DeepSeek – wirtschaftlich absolut Sinn ergibt.

Für die Erweiterung des Angebots hat sich SAP mit dem US-amerikanischen Software-Anbieter Databricks zusammengetan. Der Aktionär schrieb am 13. Februar: Databricks-CEO Ali Ghodsi schwärmt von einer perfekten Verbindung […] Die Lösung kombiniere das beispiellose Know-how von SAP bei geschäftskritischen, durchgängigen Prozessen und Daten mit umfangreicher Semantik mit der herausragenden Kompetenz von Databricks in Data Engineering..

Das Tech-Onlinemagazin Golem führt in einem aktuellen Beitrag einen weiteren Trumpf der Softwareschmiede aus dem baden-württembergischen Walldorf an: SAP setzt bei der Entwicklung seiner KI-Funktionen auf anonymisierte Kundendaten als Trainingsmaterial. Dies könnte dem Unternehmen einen Wettbewerbsvorteil gegenüber anderen Anbietern verschaffen, die keinen direkten Zugang zu vergleichbaren Datenmengen haben. (In diesem Zusammenhang sei ein anderer Artikel der Computerwoche erwähnt, der mit dem Satz beginnt: Der Datenschutz kommt in den meisten SAP-Systemen zu kurz.)

Eine Frage bleibt allerdings offen – zumindest gibt es momentan dazu noch keine Statements seitens SAP/Databricks oder Informationen aus anderen Quellen: Wie sieht’s aus mit der bekanntlich enorm hohen Rechner-Power, die für LLMs und KI insgesamt erforderlich ist? Denn – wir hatten im vergangenen Februar und Juli bereits darüber berichtet - KI ist bislang eine massive Belastung für die Umwelt.

Wenn es dazu neue Informationen gibt, werden wir hier berichten.

Passkey statt Passwort?

+

Na, am Wochenende auch fleißig alle Passwörter geändert? Samstag war schließlich »Change your Password Day«. Und schwer geflucht dabei? Keine Ideen gehabt? Haufenweise Zettel vollgeschrieben? All das muss vielleicht gar nicht sein. Viele IT-Expert*innen halten regelmäßiges Ändern von Passwörtern für nicht mehr zeitgemäß. Sie haben einen anderen Vorschlag.

Frei nach dem Motto »gut gemeint ist nicht gut gemacht« schreibt John Pardey im Praxismagazin IT-Administrator, die Realität der IT-Sicherheit zeigt, Passwörter haben ausgedient: Sie sind oft schwach, werden wiederverwendet oder sind leicht zu knacken. Und auch heise online stößt ins selbe Horn: Häufige (erzwungene) Passwort-Wechsel sorgen nicht für sicherere Passwörter, da die meisten Betroffenen sich ein einfach merkbares (und somit knackbares) Schema ausdenken. Der Chaos Computer Club sähe den »Change your Password Day« am liebsten ganz abgeschafft.

Die Liste, die der Passwortmanager-Hersteller NordPass für das Jahr 2024 ermittelt hat, spricht tatsächlich Bände; hier nur mal die Top-5:

  • 123456
  • 123456789
  • password
  • 12345678
  • qwertz (oder bei englischsprachigen Systemen qwerty)

Und so geht es munter weiter. Diese und ähnliche Standard-»Passwörter« sind in Sekundenbruchteilen geknackt. Und wenn Nutzer*innen dann außerdem noch so bequem sind, eine solche unsichere Zeichenfolge für mehrere Accounts zu verwenden, muss ein Bot sich nur einmal die Arbeit machen und kommt anschließend überall rein.

Expert*innen schlagen deswegen inzwischen vor, statt Passwörtern lieber sogenannte Passkeys zu verwenden. In einem Artikel aus dem Jahr 2023 erklärt heise online, wie’s funktioniert: Bei der Verwendung von Passkeys kommt asymmetrische Verschlüsselung zum Einsatz: Als Geheimnis dient ein privater Kryptoschlüssel, also im Prinzip eine lange, zufällig generierte Zeichenfolge. Anders als das Passwort ist dieser tatsächlich geheim, er verbleibt auf Ihrem Gerät, das Sie für Passkeys nutzen, zum Beispiel auf Ihrem Smartphone. Er wird niemals mit den Webdiensten geteilt.

Auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) rät inzwischen zu Passkeys und hat im vergangenen Oktober wichtige Informationen auf einer eigenen Seite zusammengefasst.

Wer aber, aus welchen Gründen auch immer, Passkeys nicht einsetzen kann oder will, möge folgende Hinweise beachten:

Schritt 1: Einen guten Passwort-Safe installieren, der nur lokal arbeitet (Cloud-basierte Anwendungen können ihrerseits gehackt werden). Empfehlenswert ist zum Beispiel das FOSS-Programm KeePassXC (mehr darüber in der Wikipedia)

Schritt 2: Prüfen, ob das eigene Passwort bereits in Listen von Hacks auftaucht; das geht mithilfe der Website ‘;--have i been pwned? (mehr darüber in der Wikipedia).

Schritt 3, logisch: Gehackte Passwörter sofort ändern. Und dann für alle Zugänge mit KeePassXC neue, starke Passwörter erzeugen und auf den entsprechenden Sites ändern. (Für jeden Zugang ein eigenes, versteht sich.)

Schritt 4: Da KeePassXC den Nutzer*innen das Merken abnimmt, ist es besonders wichtig, das jene sich dafür das Keepass-Passwort umso besser merken. Denn wer einmal den Zugang zum Programm vergessen hat, kommt auch an alle anderen Passwörter nicht mehr heran. Also ein langes und starkes Passwort erfinden und dieses bombensicher ablegen – weit entfernt vom Gerät. Vielleicht auf einem kleinen Zettelchen unter der Blumenvase im Wohzimmer? Oder hinter dem Badezimmerspiegel?

Dazu noch ein weiterer Pro-Tip: Wie schon der CCC im oben verlinkten Artikel schreibt, kommt es nicht so sehr auf ein unübersehbares Gewirr von Sonderzeichen an, sondern vor allem auf die Länge: IchLiebeEsGegenFaschistenZuDemonstrieren! ist sicherer als Mb2.r5oHf-0t. Wer sich einen ganzen Satz ausdenkt, vielleicht absichtlich etwas falsch oder in einer anderen Sprache schreibt, dazu ein paar Zeichen durch Ziffern oder Sonderzeichen ersetzt, hat gute Chancen, das Passwort auch ohne Zettel im Kopf zu behalten. Zum Beispiel so: ThaiCurRy$chmecktparticuLarlyläckermi7Basm@tiRais. Dieses Passwort zu knacken, würde Jahrhunderte brauchen, meint der Passwort-Checker von Bitwarden.

Und noch ein letzter Tip: Sollte der Rechner oder das Phone mal komplett und unrettbar abstürzen, wäre damit auch die Keepass-Datenbank futsch. Neben regelmäßigen Backups kann es deswegen eine gute Idee sein, die Passwort-Daten noch einmal gesondert abzulegen. Dazu gibt es im Programm selbst die Option »Datenbank-Backup speichern«. Wer das auf einen externen Speicher (USB-Laufwerk oder -Stick, SD-Card) ablegt, sollte sicher sein.

KI, aber in gut?

+

Wer »Künstliche Intelligenz« denkt, denkt NVIDIA. Bis vor ein paar Tagen war das eine Binsenweisheit, denn der Konzern aus dem kalifornischen Santa Clara war bislang der führende Hersteller von Prozessoren, die in KI zum Einsatz kommen. Aber dann begann diese Woche mit einem schwarzen Montag für das Unternehmen: Am 27. Januar taumelte der Aktienkurs des Chip-Giganten ins Bodenlose. 17 % Minus im größten Tagesverlust, den je ein Unternehmen an der Wall Street hat hinnehmen müssen (ZDF). Auch Broadcom Inc. verlor 17,4 % – und das beinahe aus heiterem Himmel. Grund: die chinesische KI-App DeepSeek. Was ist dran an dem Hype?

Am 20. November ’24 machte das chinesische Startup – das gerade mal seit Anfang 2023 existiert – sein LLM DeepSeek R1 zugänglich, noch in der Lite-Preview-Version. Und am 20 Januar 2025 stellte DeepSeek dann R1 auch öffentlich vor, zusammen mit seinem Chatbot für iOS und Android. Am 27. Januar, nur eine Woche später, hatte die App bereits ChatGPT überrundet.

Was ist so besonders an DeepSeek?

Nun, es ist ebenso leistungsfähig wie die Konkurrenten von OpenAI, Google oder Meta. Aber, und hier kommen die Gründe für die Beben, die es ausgelöst hat: Es ist wesentlich billiger, verbraucht weniger Energie, weniger GPU-Power, also auch weniger Rohstoffressourcen – und es ist Open Source. Was man von den Modellen der Mitbewerber nicht behaupten kann, im Gegenteil: Ob Metas LLaMA, Amazons AlexaTM, OpenAIs ChatGPT oder Googles LaMDA, ihre Funktionsweise ist gut gehütetes Firmen-Geheimnis.

Ebenso einschneidend wie das Open-Source-Konzept, wenn nicht sogar noch wesentlich bedeutsamer, ist aber der enorm reduzierte Ressourcenhunger von DeepSeek. Die englischsprachige Wikipedia formuliert es so: Wo die weltweit führenden KI-Firmen ihre Chatbots mit Supercomputern trainieren, die bis zu 16 000 GPUs verwenden, hat DeepSeek nach eigener Aussage nur 2000 benötigt, und zwar aus der NVIDIA-H800-Serie. Und weiter: Es wurde in 55 Tagen zu Gesamtkosten von 5,58 Millionen US-Dollar trainiert, was rund ein Zehntel dessen ist, was der US-Tech-Gigant Meta für seine jüngste KI-Technologie ausgegeben hat.

Das sind beeindruckende Zahlen, die am Dienstag und Mittwoch Magazine wie Spektrum, n-tv oder auch SPIEGEL bestätigten. SPIEGEL-Kolumnist Sascha Lobo nennt DeepSeek [€] die beste KI-Nachricht für uns seit ChatGPT und schreibt: Um im KI-Spiel international mitzuspielen, braucht man nicht zwingend zweistellige Milliardenbeträge.

Abgesehen von der Kostenersparnis sind das auch gute Nachrichten für die Umwelt. Denn – wir hatten im vergangenen Februar und Juli bereits darüber berichtet - KI ist bislang eine massive Belastung für die Umwelt. Der Energiehunger der Systeme aus dem Silicon Valley hat schon dazu geführt, dass die US-Tech-Riesen den Bau eigener Atomkraftwerke erwägen, und die Kühlung der Rechnerparks bedroht an manchen Orten die lokale Wasserversorgung.

Die Wirtschaftswoche schrieb am Dienstag: DeepSeek bietet einen Kontrapunkt zu der verbreiteten Annahme, dass die Zukunft der KI automatisch immer größere Mengen an Energie für ihre Entwicklung benötigen wird.

Das Online-Magazin Cleanthinking schrieb schon am Montag begeistert: Laut DeepSeek könnte der Energieverbrauch von KI-Systemen durch diese Innovation um bis zu 70 Prozent gesenkt werden. Das ist ein Game-Changer für die Nachhaltigkeit von KI.

Und auch Energie Inside, das Schweizer Magazin für Energiethemen, bestätigte am Dienstag: Ein effizientes KI-Modell könnte die Entwicklung von Smart Grids und erneuerbarer Energie massiv beschleunigen – und das Netz müsste weit weniger stark als heute gedacht ausgebaut werden. Und weiter, der Boom der Nuklearenergie durch neue KI-Rechenzentren scheint wegen Deepseek gefährdet.

Zwar sei das chinesische Unternehmen, ähnlich wie zum Beispiel TikTok, wegen der notorischen Einflussnahme der Zentralregierung in Hinblick auf den Umgang mit den Daten von Nutzer*innen möglicherweise bedenklich. Aber, so der Energie-Inside-Autor Bruno Habegger weiter: Allerdings sind auch die amerikanischen KI-Unternehmen nicht gerade bekannt für ihren Datenschutz und ihre Abwehr von staatlichen Begehrlichkeiten.

Kein Wunder, dass angesichts der Begeisterung für die KI aus dem Reich der Mitte die US-Konzerne die Boxhandschuhe anlegen. DeepSeek verletze massive das Urheberrecht, brüllt die Branche, allen voran OpenAI-Chef Sam Altman. Dumm nur, dass die Amerikaner sich selbst nicht gerade durch einen sorgfältigen Umgang mit Copyrights hervortun; im April hatten wir zum Beispiel von Kritik seitens zahlreicher Künstler*innen an der KI-Branche berichtet. Ausgerechnet OpenAI wirft DeepSeek Diebstahl geistigen Eigentums vor, titelt die Süddeutsche Zeitung [€], und für das Tech-Magazin Golem schrieb Joannes Hiltscher vorgestern, OpenAI poche scheinheilig auf das Urheberrecht. […] Deepseek habe das Wissen seiner Modelle destilliert und damit sein geistiges Eigentum und die Nutzungsbedingungen verletzt. Dass sich das Unternehmen jetzt auf das Urheberrecht beruft, ist aber schlicht bigott.

Vielleicht am schönsten formuliert es Rich Felker (@Cassandrich) auf Mastodon in einem Post von Mittwoch: I thought the sole gift of DeepSeek would be blowing the charade of massive compute requirements for parlor tricks, but now it looks like the allegations of "intellectual property theft" are also going to blow open the story of massive copyright infringement by OpenAI, Google, etc. 🤣 🍿 🍿 🍿

Auf Deutsch heißt das etwa: Ich hatte gedacht, das einzige Geschenk von DeepSeek wäre, dass es die Scharade der gewaltigen Rechenleistungs-Anforderungen für billige Zaubertricks enttarnt, aber jetzt scheint es, als könnten die Anschuldigungen des Diebstahls geistigen Eigentums auch noch die Geschichte der massiven Urheberrechtsverletzungen durch OpenAI, Google etc. offenlegen.

Fazit, oder auch tl;dr: DeepSeek wirft die Entwicklung Künstlicher Intelligenz gründlich über den Haufen und macht ihren Einsatz potentiell wesentlich umweltfreundlicher. Zugleich dürfte die Veröffentlichung des Quelltexts als Open Source die Technologie den Fängen geld- und ressourcenhungriger US-Giganten entreißen und in viele, viele weitere Open-Source-Projekte münden, die dann ihrerseits möglicherweise die Sicherheitsbedenken gegenüber einem von China gesteuerten Tech-Projekt entschärfen können.

Wahlen 2025 – Jetzt neu, jetzt digital?

+

Wir hatten uns anlässlich der Europawahlen im Sommer 2024 an diese Stelle schon einmal Gedanken darüber gemacht, wie denn wohl die Digitalisierung in Deutschland so voranschreitet. Vor allem, was die Barrierefreiheit angeht. Fast ein Dreivierteljahr später stellt sich die Frage wieder. Hat sich was getan? Wird der deutsche Staat digitaler?

Für alle mit wenig Zeit hier ein tl;dr: Unser Fazit aus dem Juni gilt offenbar immer noch. Also werden wir wohl auch in absehbarer Zukunft weiterhin unser Kreuz auf Papier machen, entweder im Wahllokal, oder per Briefwahl.

Die Aktion Mensch stellt auf ihrer Website fest: Erstens sind noch immer längst nicht alle Wahllokale barrierefrei. Zweitens: Beim Wählen mit Assistenz, also einer zweiten Person, die beim Ausfüllen hilft, grätschen oft die Wahlhelfenden dazwischen und zitieren das Wahlgeheimnis – obwohl das Gesetz diese Variante durchaus vorsieht. Heißt also drittens, dass oft die Briefwahl die einzige oder zumindest einfachste Option ist.

Ob im Wahllokal oder zu Hause, viele blinde und sehbehinderte Menschen versuchen mit einem Hilfsmittel, selbständig den Wahlzettel auszufüllen. Aber: Wählschablonen nur bedingt hilfreich, heißt es auf der Website. Denn sie seien sehr groß, wird eine blinde Person zitiert. Sie könne sich nicht sicher sein, das Richtige gewählt zu haben.

Wie einfach wäre es doch, um zu unserem Eingangsthema zurückzukommen, wenn es endlich auch in Deutschland möglich wäre, digital zu wählen!

Aber – kommen wir diesem Ziel allmählich näher? Wir hatten in unserem vorigen Beitrag zu den Europawahlen erwähnt, dass Estland schon 2005 Online-Wahlen eingeführt hat. Das ist zwanzig Jahre her, da könnte doch bei uns mittlerweile auch einiges passiert sein. Oder? Schauen wir mal beim Bundesamt für Sicherheit in der Informationstechnik (BSI); auf einer Seite zum Thema Onlinewahlen vom 10.1.2025 heißt es: Bei der Durchführung von nicht-politischen Abstimmungen und Wahlen kann heutzutage auch die Möglichkeit angeboten werden, die eigene Stimme mittels Smartphone, Notebook oder Computer abzugeben und über das Internet oder – beispielsweise in Firmen – über das Intranet zu versenden.

Hm – nicht-politische Abstimmungen und Wahlen heißt im Umkehrschluss, dass politische Wahlen, wie zum Beispiel die anstehende, vorgezogene Bundestagswahl, gar nicht erst in Betracht gezogen werden. Dabei stellt der Behörden Spiegel – nach eigener Darstellung die auflagenstärkste unabhängige Zeitung für den Öffentlichen Dienst in Deutschland – in einem aktuellen Beitrag fest: Laut einer Befragung des Bitkom hätten 60 Prozent der Deutschen gerne die Option, online abzustimmen. Bei den 16- bis 29-Jährigen sind es 73 Prozent. Aber: Die Cyber-Sicherheit auf Wählerseite scheint die große Unbekannte in der Gleichung der Online-Wahlen zu sein. Die Nutzer*innen mit ihren unsicheren Endgeräten sind also verantwortlich?

Die Zukunftsforscherin Anabel Ternès versucht im Magazin Focus, die Frage zu beantworten, warum wir nicht digital wählen. Sie zählt eine Reihe von bereits funktionierenden Verfahren auf und kommt zu dem Schluss: Die Verlagerung von Wahlen ins Digitale birgt Risiken – von Datenschutzproblemen bis hin zu möglichen Cyberangriffen. Aber mit dem richtigen Willen und der entsprechenden Technologie können diese Hürden genommen werden.

Stichwort »Willen«: Sind denn die Parteien zumindest für kommende Wahlen daran interessiert, das deutsche Wahlsystem mittel- oder wenigstens langfristig online zu gestalten? In den Wahlprogrammen der demokratischen Parteien (z. B. B’90/Die Grünen , Die Linke , SPD , CDU/CSU , FDP ) findet sich kein Hinweis zu Online-Wahlen. Erwähnt werden zwar Betriebsrats- und Sozialwahlen, aber Regional-, Landtags- oder Bundestagswahlen? Fehlanzeige.

Aus der Elektro-Prämie: Neuzulassungen gehen drastisch zurück

+

Vor genau zwei Wochen hatten wir berichtet, dass Norwegen in Sachen Elektromobilität Deutschland weit hinter sich lässt. Jetzt bestätigen neue Zahlen den Trend – aber die Politik weist die Verantwortung von sich.

Die HUK Coburg ist Deutschlands größter Autoversicherer. In seinem neuen E-Barometer stellt der Verein fest: Private Autobesitzer sind im vierten Quartal so selten von Verbrennungs- auf Elektroantriebe umgestiegen wie zuletzt vor drei Jahren. Nur noch 3,9 % Neukäufer sind zu E-Autos gewechselt, gegenüber 6,2 % im ersten Quartal ’24.

Woran mag das liegen?

Ach, Moment – hatte nicht die Bundesregierung zum Jahresende 2023 die Kaufprämie für Elektroautos abgeschaltet? Ja, richtig, sogar noch früher als geplant. Am 16. Januar stellte der ADAC in einem Artikel fest: Das Ende der BAFA-Prämie für E-Autos 2023 führte zu einem starken Rückgang der Zulassungszahlen. Am 21. meldete der SPIEGEL, dass im letzten Quartal 2024 der Bestand an reinen E-Autos […] im Vergleich zum Vorquartal nur noch um 0,1 Prozent zu[nahm], und heute schlagzeilt auch der Münchner Merkur: Elektroautos in Deutschland: Ausgebremst nach dem Prämien-Aus.

Noch-Kanzler Scholz aber kann diesen Zusammenhang offenbar nicht so klar sehen (vielleicht kann er sich ja ans Prämien-Ende auch nur nicht mehr erinnern), nochmal der SPIEGEL-Artikel: Der Kauf von Elektroautos lässt sich nicht einfach verordnen, sagte Scholz. Die Modelle müssten Verbraucherinnen und Verbraucher überzeugen.

Ach so, die Hersteller liefern einfach keine gute Qualität, findet Herr Scholz. Aber Moment mal, warum sagt HUK-Vorstandsmitglied Jörg Rheinländer dann im HUK-E-Barometer: Der Schlüssel zur Akzeptanz und Verbreitung von Elektroautos in Deutschland hängt ganz offensichtlich von der persönlichen Erfahrung ab. Und weiter: Die aktuellen Ergebnisse des HUK-E-Barometers zeigen, dass Fahrer, die E-Autos kennen, diese Autos viel positiver sehen, gerade wenn es um Kriterien wie Komfort, Leistungsfähigkeit oder Verlässlichkeit von E-Autos geht.

Wer also erstmal ein E-Mobil ausprobiert hat, findet’s gut. Da Elektro-Fahrzeuge aber momentan noch (wieder) teurer sind als Verbrenner, kommen sie gar nicht erst dazu, sie zu testen. Wäre das nicht eine Aufgabe der Politik, mit Subventionen gegenzusteuern? Steckt nicht die Politik immer noch jährlich über 65 Milliarden in umweltschädliche Subventionen? Wie will sie da ihre selbstgesteckten Ziele schaffen? Noch einmal der SPIEGEL-Artikel: Im Oktober 2024 waren nach Zahlen des Kraftfahrt-Bundesamts knapp 1,6 Millionen vollelektrische Autos in Deutschland zugelassen. Die scheidende Ampelkoalition wollte bis 2030 eigentlich 15 Millionen vollelektrische Autos auf die Straßen bringen […]

P.S.: Nein, es ist nicht zu erwarten, dass unter einem Kanzler Merz die Förderprämie wieder eingeführt wird. Das Berliner Magazin Elektropraktiker hat sich die Wahlprogramme angesehen und stellt bei CDU/CSU fest: Rücknahme des Verbrenner-Verbots, Ablehnung von Strafzahlungen bei Überschreitung von EU-Flottengrenzwerten, Votum für mehr Technologieoffenheit […] Letzteres heißt ja im Klartext: Weiter wie bisher, irgenwann wird schon eine neuen Technologie vom Himmel fallen, die all unser Probleme magisch löst.

Elektrisk mobilitet for alle - Norge viser vei

+

»Elektromobilität für alle – Norwegen ist Vorreiter« lautet die Übersetzung für die Überschrift. Offensichtlich sind die Skandinavier schon viel weiter als die Deutschen. Woran liegt das? Und warum geht die Umstellung hierzulande so zögerlich voran?

Neun von zehn Neuwagen in Norwegen sind elektrisch, titelte DER SPIEGEL vor einer Woche. 88,9 Prozent der 2024 verkauften Neuwagen [waren] vollelektrische Fahrzeuge, weitere 2,7 % Plug-in-Hybride. Schon ab diesem Jahr will das Land gar keine Verbrenner-Neuzulassungen mehr erlauben. Zehn Jahre vor der EU-Deadline 2035.

Dass auch die offizielle Reise-Website für Norwegen, visitnorway.de, die hohen Neuzulassungen für E-Autos feiert, überrascht einerseits vielleicht erstmal nicht – aber wenn man auf der entsprechenden deutschen Site nach »e-mobilität« sucht, wird der Unterschied erst richtig deutlich: Dort ist der erste Artikel eine VW-Werbung von 2020 (Sie wissen schon, der Konzern, der gerade nur dank sehr leidensfähiger Mitarbeiter*innen umfangreiche Schließungen verhindern konnte), der zweite Treffer stammt aus dem Jahr 2019 und feiert den Tesla-Standort Grünheide (Sie wissen schon: Das Unternehmen legte im Juli 2024 die Ausbaupläne auf Eis, bis die Nachfrage nach Elektroautos wieder steigt [Wikipedia]) – und ebenfalls von 2019 ist ein Artikel mit dem Titel Die Norweger fahren elektrisch vorneweg. Einer der Gründe: In Norwegen finanzieren Einnahmen aus dem Verkauf fossiler Brennstoffe die E-Mobilität. Was hier im Sommer auch Thema war.

Wer als E-Mobil-Reisende*r in Deutschland nach einem brauchbaren Verzeichnis von Ladestationen sucht, wird nicht etwa auf deutschland.de, sondern erst, etwas versteckt, bei der Bundesnetzagentur und beim ADAC fündig. Über 38.000 Ladestationen sind es beim Automobilclub, wogegen die norwegische Site »nur« 3463 öffentliche und 7753 Schnell-Ladestationen verzeichnet, also gut 11.000 – allerdings auf rund fünfeinhalb Millionen Einwohner. Die deutschen Stationen teilen sich fast 85 Millionen Deutsche und ihre Reisegäste.

Und es gibt noch einen weiteren Grund, warum die »Nordmenn« so deutlich vorn liegen, nachzulesen auf der oben verlinkten norwegischen Site; da sagt nämlich Christina Bu, Generalsekretärin des Norwegischen Elektroauto-Verbands: Aber der stärkste Anreiz könnte sein, dass wir den Kauf von umweltschädlichen Benzin- und Dieselautos stark besteuern. Deutschland hingegen verteilt nach wie vor großzügig umweltschädliche Subventionen, noch vor zwei Jahren waren es über 65 Milliarden; ein großer Teil davon geht in fossile Energieträger – trotz Haushaltslöchern und zahlreicher Kritik. (Augenöffnend ist die Übersicht des Umweltbundesamts .)

Nachdem die rot-grüne Bundesregierung zwei Fassungen des Erneuerbare-Energien-Gesetzes (EEG) verabschiedet hatte, wurde es unter Merkel 2009 erheblich aufgebläht, die Anzahl der Paragraphen wurde verdreifacht – was zunächst dem Wachstum der Erneuerbaren Energien noch keinen Abbruch tat. Aber drei Jahre später war es dann so weit; der dänische Windkraft-Anbieter Ørsted erinnert sich, dass CDU-Umweltminister Peter Altmaier ab 2012 Förderungen kürzte und den bis dahin zügigen Ausbau der Erneuerbaren bremste.

Der Bericht zitiert Constantin Zerger, den Bereichsleiter Energie und Klimaschutz bei der Deutschen Umwelthilfe (DUH): Wir nennen das die Altmaier-Delle. Der Ausbau der Solarenergie war auf einem guten Niveau und wurde durch den Deckel sabotiert.

2014 wurde das EEG erneut reformiert, wieder unter CDU-SPD-Federführung. Ørsted schreibt, dass seitdem in Ausschreibungsverfahren nur noch solche Ökostromanlagen zur Förderung ausgewählt wurden, deren Fördersummen niedrig waren, und zitiert Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW): Dann wurden die Ausschreibungsmengen künstlich verknappt, Zuschläge nur für die billigsten, nicht die besten und versorgungssichersten Anlagen vergeben, und Bedingungen insgesamt massiv verschlechtert.

Auch der Windkraft-Ausbau sei durch die 2014er-Novelle ausgebremst worden, heißt es weiter. Pauschale Abstandsregelungen für Windräder, langwierige Naturschutzgutachten und vor allem die Verschleppung von Genehmigungsverfahren und die fehlende Bereitstellung geeigneter Bauflächen hätten Fortschritte stark verzögert oder sogar verhindert. So ist der Markt nahezu in sich zusammengebrochen, sagt Kemfert in dem Interview.

2021 berichtete das Magazin FOCUS über den Climate Change Performance-Index (CCPI) der NGO Germanwatch; zu dem Zeitpunkt stand Deutschland auf Platz 19 (aktuell auf Platz 16). Immerhin, könnte man etwas zynisch ergänzen, noch deutlich vor China (Rang 55) und den USA (57).

Nur liegen China und die USA ganz weit vorn als die Länder mit der größten Kapazität an Solar- und Wind-Kraftwerken, ebenso bei der Solarthermie und der Wasserkraft und dominieren seit Jahren den Multi-Milliarden-Markt bei Öko-Kraftwerken, schreibt FOCUS.

Vor dem Hintergrund ist es vielleicht gar kein so großes Wunder, dass auch der Ausbau des deutschen Ladenetzes eher, sagen wir mal, schleppend vorangeht …