Tech-News

Archiv — 2022

← Tech-News — Aktuell

Was war, was kommt?

+

Es war ein ausgesprochen bewegtes Jahr – nicht nur politisch, ökonomisch, ökologisch, sondern auch in der Welt der IT und Forschung. Hier eine kleine und nicht repräsentative Übersicht der Themen, die uns 2022 beschäftigt haben; plus: ein kleiner Teaser ins nächste Jahr.

Los ging’s damit, dass Microsofts Exchange-Server den Dienst versagten. Auch die Digitalisierung im Gesundheitswesen verursachte erneut Kopfschmerzen. Gleich mehrmals wurden andererseits in diesem Jahr beeindruckende neue Supercomputer eingeweiht; Fortschritt und Stagnation in Deutschland halten sich also offenbar die Waage – oder?

Die alte Frage nach der Gefahr, die von Handys ausgeht, wurde vielleicht endgültig beantwortet, die nach der von Technik ausgehenden Gefahren für die Umwelt hingegen musste gleich mehrfach gestellt werden – aber Technik und Ingenieurs-Erfindungsgeist können auch mit ganz unterschiedlichen Lösungen helfen.

Etwas detaillierter haben wir das Thema »Technik und Umwelt« in unserer Serie zu Obsoleszenz, Recycling, Reparatur und Entsorgung behandelt: »Zu Kaputtbar!« hieß sie und hatte fünf Folgen: I, II, III, IV und V.

Mitte Oktober kam dann ein Thema auf den Tisch, das schon seit dem April kontinuierlich dräute: Der Milliardär, Tesla-Chef und Mars-Reisende in spe, Elon Musk, kaufte die soziale Microblog-Plattform Twitter. Mit der ihm eigenen trump-esken, chaotischen Polter-Mentalität sorgte er für Schlagzeile um Schlagzeile; ein Großteil der Nachrichten entstammte (und entstammt) der Kategorie Kopfschütteln: So entließ er die Hälfte der Belegschaft, nur um Tage später Mitarbeiter zurückzuwerben, verärgerte die Werbetreibenden (viele legten ihre Anzeigenschaltungen auf Eis), irrlichterte zwischen verschiedenen Bezahl-Konzepten, öffnete Twitter wieder für rechtsextreme Strömungen (einschließlich der Einladung an Donald Trump, der allerdings dankend ablehnte). Seitdem berichteten wir mehrmals über die Alternative, das dezentralisierte und von Freiwilligen betriebene Netzwerk Mastodon (und sein Umfeld, das »Fediverse«).

Zum Jahresende rückte noch einmal einer der größten Player in der Netz-IT in den Vordergrund: Google hat offensichtlich seine Probleme mit rassistischen Auto-Vervollständigungen in der Suche immer noch nicht im Griff, deswegen empfahlen wir Alternativen. Und Nutzer von Google-Fonts, den frei verfügbaren Schriftarten, werden seit einigen Monaten wegen Datenschutzbedenken zunehmend abgemahnt – allerdings gibt es jetzt erste Prozesse gegen die Abmahn-Anwälte, wie aktuell Sascha Lobo im SPIEGEL berichtet.

Und was kommt? Neben dem Komplex Twitter/Mastodon ist aktuell ein heißes Thema in den sozialen Medien Künstliche Intelligenz – ob ChatGPT, der Bot, der Gespräche simulieren kann, ob Vocaloid, das Gesangsstimmen generiert, oder all die »Kunst«-Programme, die aus einer Texteingabe ein Bild »im Stil von…« erzeugen (und damit tausendfach künstlerisches Urheberrecht verletzen), KI (oder AI, wie es auf Englisch heißt) wird uns im kommenden Jahr sehr beschäftigen. Deswegen beginnen auch wir hier 2023 mit diesem Thema.

Jetzt erstmal schöne Feiertage, einen guten und entspannten Jahreswechsel, und bleiben Sie gesund!

Google, schweig!

+

In der vergangenen Woche hatten wir berichtet, dass die wohl verbreitetste Anwendung im Internet immer noch rassistische, sexistische, antisemitische und andere diskriminierende Suchvorschläge auswirft. Dieser Automatismus mag in manchen Fällen praktisch sein, aber schon allein, um solche Entgleisungen zu verhindern, möchte man vielleicht das Auto-Vervollständigen komplett deaktiveren.

»Möchte man« ist hier der Schlüsselbegriff – was nämlich Google selbst angeht, ist es nur scheinbar möglich, die Funktion auszuschalten. Auf der Startseite unten gibt es einen Link zu »Einstellungen«, darunter den Begriff »Sucheinstellungen«, und dort den Punkt »Suchanfragen automatisch anhand von Trends vervollständigen«. Wenn man dort »Keine beliebten Suchanfragen anzeigen« anklickt und die Einstellung abspeichert – zeigt Google einfach weiterhin die Suchvorschläge an.

Wer ein Google-Konto hat, kann zwar Begriffe im Nachhinein löschen, aber die Funktionalität selbst bleibt erhalten. Um dieses Problem zu umgehen, gibt es zwei Möglichkeiten:

1. Nur noch mit der Browser-Suchfunktion suchen; dort lässt sich die Vervollständigung abschalten. Wie das geht, steht für den mittlerweile marktführenden Google-Browser Chrome hier, für die (aus vielen Gründen bessere) Alternative Firefox hier.

2. Google aus dem Browser verbannen. Das ist die gründlichste Methode – und es gibt überraschend viele Alternativen, die teilweise erhebliche Vorteile gegenüber Google haben, die über das lästige Auto-Vervollständigen hinausgehen. Datenschutzsichere Browser erheben nämlich zusätzlich auch gar nicht erst persönliche Daten und erstellen keine Profile, sondern vergessen die Suchbegriffe, die IP und andere tendenziell bedenkliche Daten direkt nach der Benutzung.

DuckDuckGo ist die momentan wohl bekannteste dieser die Privatsphäre achtenden Suchmaschinen. Sie führt die Suche durch, ohne Daten weiterzugeben, und blockiert Tracker, die Nutzerverhalten analysieren und speichern. DuckDuckGo ist eine sogenannte »Meta-Suchmaschine«, das heißt, sie verwendet Schnittstellen anderer Engines wie Wikipedia, Bing, Yahoo!, Yandex und Yelp und verfügt dazu auch über einen eigenen Webcrawler-Bot. Aus insgesamt über hundert Quellen gewinnt DuckDuckGo die Suchergebnisse.

Eine weitere »Meta-Suchmaschine« ist die deutsche Entwicklung MetaGer; auf deren Startseite heißt es: Mit uns behalten Sie die volle Kontrolle über Ihre Daten. Mit der Anonym-Öffnen-Funktion bleiben Sie auch beim Weitersurfen geschützt. Wir tracken nicht. Wir speichern nicht. Zudem verwendet MetaGer grünen Ökostrom, was ein auch nicht ganz unwichtiger Pluspunkt ist.

Und dann wäre da noch SearXNG, ebenfalls eine Meta-Suchmaschine, deren Programmierung quelloffen ist und die daher sogar auf einem eigenen Server installiert werden kann. Auch SearXNG kombiniert die Ergebisse anderer Engines wie Bing, DuckDuckGo, Google, Qwant, Yahoo!, Wikipedia, Wikidata und vielen anderen. SearXNG ist aus der Software Searx hervorgegangen und bietet im Unterschied zu dieser auch öffentliche Instanzen an. Dazu gehören zum Beispiel searx.puffyan.us, paulgo.io oder fairsuch.net; eine umfassende Liste solcher öffentlichen Instanzen findet sich hier.

Don’t be evil, Google!

+

Das selbstgewählte Motto des Tech-Giganten ist genau genommen eine Selbstverständlichkeit – scheint aber zugleich eine Herausforderung zu sein. Wohl kaum jemand würde zum Beispiel Rassismus, Sexismus und die Diskriminierung von Minderheiten nicht zu den Dingen zählen, die als »evil« gelten. Wenn also in der Suche mit den meist automatisch erscheinenden Ergänzungsvorschlägen (»Auto-Vervollständigung«) oft rassistische oder diskriminierende Formulierungen auftauchen, darf man wohl mit Recht sagen, dass Google seiner Devise nicht ausreichend folgt.

Direkt am Anfang des noch taufrischen Jahrtausends, vor gut zweiundzwanzig Jahren, setzte die Suchmaschinenfirma ihrem »Code of Conduct« jenen Satz voraus, der immer wieder für Diskussionen sorgen sollte. Fünfzehn Jahre später wurde das Firmenkonglomerat restrukturiert und in Alphabet Inc. umbenannt; der neue Mutterkonzern führte »Do the right thing« als sein Motto ein, aber für die Tochtergesellschaft Google blieb »Don’t be evil« weiter der Einleitungssatz zu ihrem Verhaltenskodex. Erst 2018 verschwand er vom Anfang und wanderte ans Ende des Documents.

Immer wieder wiesen allerdings über die Jahre verschiedenste Beobachter darauf hin, dass in den Vorschlägen und Vervollständigungen, die Google hinzufügt, wenn Benutzer*innen zu tippen beginnen, Sexismus, Rassismus und Diskriminierung fast schon an der Tagesordnung sind. Das war früh Thema, und bis heute hat sich daran kaum etwas geändert. Ein Selbstversuch: Wer die Wörter »Sind Armenier« eingibt, bekommt als Vorschläge zum Beispiel »Araber«, »orthodox« oder auch »Zigeuner« geliefert. Und wir wissen inzwischen, dass unser Gehirn als Frage formulierte Überschriften von Artikeln nicht als Fragen, sondern als Tatsachen abspeichert.

Für eine Welle der Empörung sorgte vor einigen Jahren auch eine vermeintlich rassistische Tendenz bei der Bildersuche von Google. Auf die Anfrage »three black teenagers« gab es Polizeifotos (sogenannte »Mugshots«) zu sehen, wer aber nach »three white teenagers« suchte, sah fröhliche, gutgelaunte Menschen – von Stockphoto-Anbietern. Allerdings, und hier kommt die andere Seite dieser Debatte: Damit die Bilder gefunden werden, müssen sie erst einmal von den ursprünglichen Websites mit Schlüsselwörtern versehen worden sein. Deswegen kommt der damalige Artikel in der ZEIT zu dem Schluss: Nein, die Suchmaschine ist nicht rassistisch. Er zitiert den britischen Reporter und Vlogger Antoine Allen, der das Thema auf seiner Website behandelte und vermutete, in westlichen Ländern wie den USA und Großbritannien sei der Bevölkerungsanteil von Weißen sehr viel höher als der von Schwarzen. Dementsprechend gebe es eine höhere Nachfrage nach Stockfotos von Weißen, zum Beispiel für Werbung, und ein größeres Angebot von entsprechend verschlagworteten Motiven. Die mugshots wiederum seien von Nachrichten-Websites mit den Schlagworten three black teenagers versehen worden. Google habe damit nichts zu tun, die Suchmaschine zeige nur, was sie auf Nachrichten- und anderen Websites findet.

Das ist grundsätzlich richtig. (Deswegen fordern die Autoren der weiter oben schon einmal verlinkten Goliathwatch-Studie, die Auto-Vervollständigung solle ganz abgeschafft werden.) Trotzdem hat der Konzern natürlich Einfluss auf die Funktion, wie zum Beispiel im Dezember ein Skandal um Autocomplete-Vorschläge, mit denen Juden diskriminiert wurden, zeigte. Wer auf Englisch »are Jews« eintippte, bekam seit einem Update nicht mehr »bad« vorgeschlagen (die gleiche Änderung wurde auch für »are women« vorgenommen, allerdings nicht für »are Muslims«).

Eine aktuellere Entwicklung betrifft den Quellcode des Chrome-Browsers – daraus sollen gewohnte, aber eben auch rassistische Begriffe wie »Whitelist« und »Blacklist« gegen unverfänglichere wie »Blocklist« und »Allowlist« ersetzt werden, wie die Süddeutsche Zeitung berichtet.

Zusammengefasst heißt das: Der Alphabet-Konzern kann sehr wohl reagieren und sexistische, antisemitische, rassistische und andere diskriminierende Suchvorschläge unterbinden. Das erfordert allerdings entsprechend großen öffentlichen Druck. So lange der nicht vorhanden ist, wird weiterhin der in unserer Gesellschaft inhärente »Alltags___ismus« widergespiegelt – und damit verstärkt. Nicht ohne Grund nämlich werden bestimmte Wörter heute nicht mehr verwendet; wie schon weiter oben erwähnt, speichert unser Gehirn gelesene Information offenbar ohne Frage- und sonstige Satzzeichen ab, und je häufiger etwas wiederholt wird – auch die größte und unglaublichste Lüge –, desto eher sind wir geneigt, es zu glauben.

Bundesregierung und Greta Thunberg einig

+

Zugegeben, der Titel ist einigermaßen reißerisch und zu 99 % nicht akkurat. Aber eines haben die beiden Erwähnten eben doch gemeinsam: Eine relativ neue Präsenz im Social-Media-Netzwerk Mastodon. Der Bund gleich mit einem eigenen Server, die Fridays-for-Future-Initiatorin auf der schwedischen Instanz mastodon.nu (zu den Fachbegriffen gleich mehr).

(Vorbemerkung: Die meisten folgenden Links führen zu englischsprachigen Artikeln, weil das Thema in den USA deutlich weitreichender behandelt wird.) Die Entlassung von tausenden Twitter-Mitarbeitern (spektakulär gleich am ersten Wochenende von Teilen der Führungsetage), die angekündigte Änderung des Verifizierungs-Häkchens von einer Identitätsprüfung zu einem Bezahl-Service (was laut einem heutigen SPIEGEL-Bericht nach wie vor für Chaos sorgt), die Kündigungen von zahlreichen weiteren Twitter-Führungskräften, auch im Bereich der Datensicherheit, dazu Musks Aussage, Twitter müsse von seinen Nutzern eine Abogebühr verlangen, um weiter existieren zu können, seine Warnung, es stünden »harte Zeiten« bevor und Twitters Zukunft stehe auf dem Spiel – und schließlich die recht deutliche Drohung der amerikanischen Federal Trade Commission FTC, die weiteren Entwicklungen bei Twitter genau im Auge zu behalten – all diese Nachrichten ließen die Unruhe unter vielen langjährigen Twitter-Nutzern fast stündlich wachsen.

Und die Neuanmeldungen bei Mastodon: Kurz nach ihrem Einstieg ins Fediverse¹ hatte Greta Thunberg schon 55 000 Follower, der Server der Bundesregierung dient bereits 34 Behörden als Mastodon-Instanz, Tutanota, der große deutsche Anbieter für verschlüsselte E-Mails, nennt inzwischen Mastodon in seinen Social-Media-Optionen zuerst. Der Twitter-Account @joinmastodon meldete am 12. November: Mehr als eine Million Menschen sind Mastodon seit dem 27. Oktober beigetreten (…) die Zahl der aktiven Nutzer ist auf über 1,6 Millionen gestiegen, mehr als 3 mal so viel wie vor zwei Wochen! Und Eugen Rochko, »Erfinder«, Hauptentwickler und Gründer der Mastodon gGmbH mit Sitz in Berlin, schrieb schon am 7. November: Wir haben heute übers gesamte Netzwerk 1 028 362 Nutzer erreicht, 1124 neue Server seit dem 27. Oktober, und 489 003 neue Nutzer. Das ist ziemlich cool.

Das sind erstmal alles gute Nachrichten, denn ein Social-Media-Netzwerk ohne Nutzer ist nicht besonders »social«. Und doch gibt es auch ein Aber, genau genommen sogar mehrere. Erstens und vielleicht am gewichtigsten: Die Gesprächskultur, die sich in den sechseinhalb Jahren entwickelt hat, seit Mastodon existiert, ist in der Regel geprägt von gegenseitiger Rücksichtnahme, Inklusion, freundlicher und höflicher Kommunikation statt glänzender Präsentation. Bei Twitter ist es dagegen üblich, auf der Jagd nach Followern und »clout«, was sich vielleicht am besten mit »Einfluss« übersetzen lässt, kurze, schnippische, ironische oder sarkastische, gern auch drastische und provokative Botschaften abzusetzen. Der anschließende Dialog ist viel weniger (bis hin zu gar nicht) wichtig; viele Twitter-Nutzer antworten nicht einmal mehr auf die Kommentare.

Zu der Inklusion, die bei Mastodon eine so viel größere Rolle spielt, gehört auch der Umgang mit sogenanntem »Alt-Text«, der für Bilder und Videos eingesetzt und von Screenreader-Software interpretiert wird, damit Blinde und Sehbehinderte zumindest ahnen können, womit der jeweilige Post illustriert ist. Und es gehören Content-Warnungen dazu, die in dem Netzwerk großzügig verwendet werden, um politische Themen hinter einem »Mehr-lesen«-Button zu verbergen, Berichte über Gewalt, drastische Darstellungen, aggressive Sprache, aber auch Film-Spoiler, Pointen von Witzen – oder sie dienen einfach als tl;dr für einen längeren Text; Mastodon-Instanzen haben in der Regel eine Begrenzung von mindestens 500 Zeichen, manche auch 1500 oder gar noch mehr.

Manche Twitter-Nutzer tun sich beim »Erstkontakt« schwer, die für sie fremden Regeln zu verstehen; andere wiederum sind neugierig und fragen sich durch; auch daraus ergeben sich dann gelegentlich unterhaltsame Dialoge. Es muss also kein »Culture Clash« sein, aber für beide Seiten sind momentan die Lernkurven recht steil. Ein klassisches Zitat, nur sinngemäß wiedergegeben: »Früher war meine Timeline voll, wenn alle halbe Stunde mal was reingekommen ist, jetzt kriege ich alle paar Minuten eine Freundschaftsanfrage!«

Ein anderer Unterschied liegt in der Struktur bedingt: Twitter wird zentral von einem Serverpool aus betrieben, das Mastodon-Netzwerk besteht aus tausenden von Rechnern mit ganz unterschiedlich vielen Benutzern – manchmal nur eine Handvoll, manchmal mehrere Zehntausend -, die sich mithilfe des sogenannten ActivityPub-Protokolls miteinander verbinden. Das hat den Vorteil, dass neue Nutzer sich einen Server, bei Mastodon »Instanz« genannt, aussuchen können, der ihren interessen entspricht. Manche sind speziell auf Künstler oder Musiker ausgerichtet, andere auf Wissenschafts-Communities, Politik-Interessierte, Hobbyisten, Comicfans. Da Mastodon freie Open-Source-Software ist, kann jede Person, die will, selbst eine Instanz installieren und betreiben. (Selbst Donald Trumps »truth social« basiert auf Mastodon.) Und dank des großen Interesses der vergangenen drei Wochen beginnen auch rechtsaußen orientierte, rassistische, misogynistische und viele andere problematische Gruppierungen, eigene Server aufzusetzen.

Bislang allerdings lässt sich sagen, dass die in Mastodon selbst eingebauten Kontrollmechanismen – wie Reporting, die Möglichkeiten, einzelne User, aber auch ganze Server zu blocken und ähnliches – schnell greifen und oftmals besser als die kommerziellen Social-Media-Netzwerke schaffen, Hatespeech, Diskriminierung, Rassismus und dergleichen zu filtern. Und, siehe oben: Durch die historische Selbstdefinition als inklusives Netzwerk wird die Debatte über diese Themen weit intensiver und fruchtbarer geführt.

Hier zum Abschluss noch zwei recht gute Einsteiger-Artikel aus der Online-Ausgabe der österreichischen Zeitung der Standard: Twitter-Chaos beschert Mastodon Explosion der Nutzerzahlen und So legt man einen Account bei der Twitter-Alternative Mastodon an.

¹ Als »Fediverse« wird das gesamte Netzwerk unabhängiger Server bezeichnet, die mittels ActivityPub miteinander verbunden sind, darunter Mastodon-betriebene, aber auch PeerTube (eine Art YouTube), Pixelfed (eine Art Instagram) und zahlreiche andere Anwendungen.

Neue Abmahnwelle

+

Mit der Hartnäckigkeit von Schmeißfliegen kommen sie immer wieder: Serien von Abmahnungen gegen Website-Betreiber. Mal geht’s um die Impressumspflicht, dann um Datenschutz-Hinweise – und diesmal um die Einbindung von Google-Fonts.

So notwendig die Datenschutzgrundverordnung (DSGVO) natürlich ist, bietet sie doch auch eine Menge Fallstricke gerade für die Betreiber kleiner Websites, die sich keine*n Datenschutzbeauftragte*n leisten können. Oft schaffen auch neue Gerichtsurteile überhaupt erst Präzedenzfälle; so geschehen am 20. Januar dieses Jahres: Da entschied das Landgericht München, dass der Aufruf von Schriften aus dem Google-Angebot einen Datenschutzverstoß darstellt. Was in gewisser Weise auch verständlich und richtig ist, denn wenn eine Google-Schrift geladen wird, wird die IP-Adresse in die USA übermittelt.

Kurz zur Erklärung: die sogenannten Google-Fonts sind eine Sammlung verschiedener Schriftarten (»Fonts« im Englischen), die in das Design einer Website kostenlos eingebunden werden können. Inzwischen umfasst das Angebot über 1000 unterschiedliche Fonts, damit gibt Google Webdesigner*innen umfangreiche Gestaltungsmöglichkeiten an die Hand. Und der Konzern behauptet auch, es würden keine personenbezogenen Daten gespeichert und/oder verarbeitet. Dennoch ist eine IP-Adresse theoretisch einer bestimmten Person zuordbar, wenn auch nicht ohne größeren Aufwand.

Zwar ist das Münchner Urteil noch gar nicht rechtskräftig, dennoch werden schon seit geraumer Zeit Abmahnungen verschickt, die in der Regel zur Zahlung von 100 bis 500 Euro auffordern.

Abhilfe schafft das Einbinden der Schriften auf dem eigenen Server – damit entfällt die Anfrage in den USA. Wie das geht, erklärt beispielhaft dieses Video bei YouTube. Einfach und verkürzt ausgedrückt, ist die Methode, die Schriftdateien auf dem eigenen Server abzulegen und das CSS auf diese Dateien verweisen zu lassen statt auf die externe Google-Adresse. Für Menschen, die eine eigene WordPress-Site betreiben (und sich nicht daran stören, geduzt zu werden), gibt’s hier eine brauchbare Anleitung, wie in dem Fall vorzugehen ist.

Eine weitere Möglichkeit könnte sein, die Google-Fonts mit in die Datenschutzhinweise und das vorgeschaltete Cookie-Banner einzubeziehen – hier ist aber wichtig, dass tatsächlich vor dem eigentlichen Seitenaufbau schon die Einwilligung abgefragt wird. Deswegen, und auch, weil Cookie-Banner ohnehin gerade wieder unter besonderer Beobachtung stehen – die Verbraucherschutzzentrale Bayern hat vor ein paar Tagen ein Browser-Plugin veröffentlicht, das diese Banner weitestgehend unsichtbar macht (und natürlich datenschutzkonform alle Zugriffe ablehnt) –, ist die lokale Einbindung die deutlich bessere Wahl.

Und wenn die Abmahnung schon in der Post liegt? Nicht hektisch werden, besser besonnen reagieren und möglichst Anwaltshilfe einschalten, empfiehlt heise.de, zumindest, wenn das Schreiben nicht von einer Privatperson, sondern einer Anwaltskanzlei kommt.

Musk was?! Fedi- wie?

+

Am vergangenen Donnerstag berichteten verschiedene US-Medien¹ ² ³, dass Multimultimultimilliardär Elon Musk als neuer Eigentümer der Social-Media-Plattform Twitter offenbar plant, knapp drei Viertel der Belegschaft zu entlassen. Für viele ist das ein (weiteres) Signal, dass es Zeit wird, das Diskussionsnetzwerk zu verlassen und zu neuen Ufern aufzubrechen. Die Frage ist nur: zu welchen?
¹ Washington Post, ² Bloomberg, ³ New York Post

Keine Frage, die etablierten Sozialen Medien haben momentan noch einen De-facto-Monopolstatus in ihrem jeweiligen Bereich. Wer Bilder mit der Welt teilen will, geht zu Instagram, wer eher längere Videos veröffentlicht, nutzt YouTube, wer mit Kurzvideos Spaß (und durchaus auch ernsthaftere Themen) verbreiten möchte, geht zu TikTok. Bei Facebook sind alle, die es immer noch nicht geschafft haben, woanders hin zu wechseln, um es mal etwas gemein zu sagen. Und alle, denen an Diskussion und Information vorwiegend mit Worten gelegen ist, versammeln sich eben bei der Website mit dem blauen Vögelchen. (Dass sämtliche Social-Media-Plattformen in den letzten Jahren ihre Möglichkeiten erweitert haben, dass man auch bei Insta längere Texte in die Kommentare schreiben, bei YouTube auch kurze Snippets veröffentlichen, bei TikTok inzwischen bis zu zehn Minuten hochladen und bei Twitter längst auch Bilder und Videos hinzufügen kann, sei hier nur am Rande erwähnt.)

Was also tun, wenn das Bedürfnis zu posten, sich auszutauschen, neue Menschen überall in der Welt kennenzulernen, immer noch da ist, die Plattform sich aber in eine unschöne Richtung entwickelt (denn wer will schon eine Firma unterstützen, die mal eben 75 % ihrer Mitarbeiter rauswirft?) — was gibt es dann tatsächlich für Optionen?
Die kurze Antwort: das Fediverse.
Die etwas längere: kommt jetzt.

Anders als die großen Player ist das sogenannte Fediverse nicht monolithisch auf einem Server(park) untergebracht, sondern auf viele einzelne Rechnern verteilt. »Dezentral« ist hier das Schlüsselwort; für etwas theoretischen Background seien hier die Wikipedia-Einträge zu Verteiltes System und Verteiltes soziales Netzwerk genannt. Einerseits heißt das, dass viele verschiedene Instanzen einer Software auf vielen verschiedenen Servern liegen, die miteinander kommunizeren und jeweils eigene inhaltliche Schwerpunkte haben; andererseits – und hier wird’s spannend – können sich mittlerweile dank gemeinsamer Kommunikationsprotokolle auch unterschiedliche Softwares miteinander verbinden. Ganz so, als könne man im eigenen Twitter-Feed auch die Instagram-Posts von Freunden sehen.

Begonnen hat die Entwicklung in den Jahren 2008 — 2010; in größerem Maßstab dann mit den beiden Anwendungen Friendica (2010) und diaspora* (2012). (Fun Fact: diaspora* startete 2010 für die Entwicklung eine Kickstarter-Kampagne, die innerhalb von nur zwölf Tagen ihr Finanzierungsziel erreichte, über die Laufzeit mehr als 200 000 Dollar einnahm und damit das bis dahin erfolgreichste Projekt der Crowdfunding-Plattform wurde.) Die Motivation war in beiden Fällen, eine werbefreie Alternative zu Facebook zu entwickeln, die Nutzerdaten nicht als Kapital ansieht, sondern als zu schützende Privatsphäre; Grundlage war ebenfalls bei beiden von Anfang an Freie Open-Source-Software, die es auch Privatpersonen ermöglichen sollte, ein eigenes Social Network zu installieren und zu betreiben.

Über das seitdem vergangene reichliche Jahrzehnt sind eine Menge Projekte zum Fediverse dazugekommen; hier folgt jetzt eine – ganz sicher nicht vollständige! – Liste mit ihren jeweiligen Einsatz-Schwerpunkten, alphabetisch sortiert:

  • diaspora* (Facebook- und Twitter-Alternative)
  • friendica (Social Network, Facebook-Alternative)
  • Funkwhale (Musik-Sharing, Spotify-Alternative)
  • Lemmy (Microblogging, Link-Aggregator, Reddit-Alternative)
  • Mastodon (Microblogging, Twitter-Alternative)
  • PeerTube (Video-Sharing, YouTube-Alternative)
  • Pixelfed (Bilder-Sharing, Instagram-Alternative)
  • Pleroma (Microblogging, Twitter-Alternative)

Weitere gute Übersichten finden sich hier:

Es gibt Nachteile, die hier nicht unerwähnt bleiben sollen:

  1. Die Tatsache, dass es mehrere, oft viele verschiedene Instanzen einer Software gibt und man sich vorher entscheiden muss, bei welcher man sich anmelden möchte, scheint vielen Menschen umständlich und unübersichtlich. Es ist allerdings ohne weiteres möglich, bei verschiedenen Instanzen einen Account zu eröffnen.
  2. Durch die hohe Sichtbarkeit der kommerziellen Anwendungen und die oben beschriebene nötige Lern- bzw. Informationskurve sind die Anwenderzahlen deutlich geringer. Die Website Fediverse.Party geht von derzeit
    6 057 288 Accounts,
    1 521 314 aktiven Nutzern und
    8 764 Server-Instanzen aus. Deswegen entschließen sich immer noch wenige Menschen, einen Account anzulegen, und deswegen bleiben es verhältnismäßig wenige Nutzer – ein Teufelskreis, der nur unterbrochen werden kann, wenn sich viele Nutzer entscheiden, sich anzumelden. Vielleicht ist das aktuelle Twitter-Debakel ein etwas stärkerer Impuls …
  3. Unterschiedliche Server sind unterschiedlich gut gepflegt, deswegen empfiehlt es sich auch immer, auf die Aktualität der Software zu achten, die in der Regel angegeben ist.
  4. Da oft kleine Teams (bis hinunter zu Einzelpersonen) die Softwares entwickeln, sind manche Features, die man als selbstverständlich empfinden mag, (noch) nicht implementiert. In der Regel gibt es aber die Möglichkeit, darüber mit den Admins zu kommunizeren.

Fazit: Open-Source, dezentral, untereinander vernetzbar, ohne finanzielle Interessen und mit Schwerpunkt auf Privatsphäre – alles spricht für das Fediverse. Die »Trägheit der Masse« macht den Umstieg allerdings schwer. Twitter-, Insta-, Facebook-Freunde zu überzeugen, gemeinsam umzuziehen, kann eine Sisyphos-Aufgabe sein. Andererseits: Warum nicht einfach mal ausprobieren? Um es mit Erich Kästner zu sagen: Es gibt nichts Gutes, außer, man tut es.

Zu kaputtbar! (V)

+

In der letzten Folge unserer kleinen Serie über Herstellung, Lebensdauer, geplante Obsoleszenz, mögliche oder auch unmögliche Reparaturen und schließlich Entsorgung von Elektro- und Elektronik-Geräten wollen wir einen Ausblick wagen. Welche Maßnahmen sind notwendig, um den Müllberg zu verringern, die Produktion umweltfreundlicher zu gestalten, Geräte langlebiger zu machen? Was wird davon schon umgesetzt, was ist geplant, und wann?

Vor ein paar Tagen titelte DER SPIEGEL: Milliarden ausgediente Smartphones werden unsachgemäß entsorgt – und das, obwohl die Entsorgung den Kund*innen schon wesentlich leichter gemacht wurde. Der vergangene Freitag, 14. Oktober, war der fünfte International E-Waste Day, und aus diesem Anlass hat das WEEE Forum¹ die Ergebnisse von Umfragen veröffentlicht, die von Juni bis September 2022 in sechs europäischen Ländern durchgeführt wurden. Die Auswahl von Portugal, den Niederlanden, Italien, Rumänien und Slovenien und zusätzlich dem Vereinigten Königreich repräsentiert die Diversität der Europäischen Union, wie es in dem Beitrag des Forums heißt.

¹ Waste Electrical and Electronic Equipment

Eines der Ergebnisse: In den insgesamt 8775 befragten Haushalten waren im Durchschnitt 74 E-Produkte vorhanden, darunter Smartphones und Mobiltelefone, Tablets und Laptops, elektrische Werkzeuge, Föne, Toaster und andere (Lampen wurden nicht mitgezählt). Davon waren neun zwar noch funktionsfähig, aber nicht mehr in Betrieb, und fünf waren kaputt. Zusammen also 14 Geräte pro Haushalt, die recyclet werden könnten, aber nicht werden. Hier die fünf Spitzenreiter: 1. Kleinelektronik und Zubehör wie Kopfhörer, Fernbedienungen; 2. Kleingeräte wie Uhren oder Bügeleisen; 3. IT-Kleingeräte wie Festplatten, Router, Tastaturen und Mäuse; und 5. Kleingeräte zur Essenzubereitung wie Toaster, Küchenmaschinen oder Grills.

In diesem Jahr werden nach Expertenschätzungen von den weltweit rund sechzehn² Milliarden Mobiltelefonen etwa 5,3 Millarden unbrauchbar. Aber nur ein kleiner Teil wird fachgerecht entsorgt und damit recyclet, trotz der vielen wiederverwendbaren Bestandteile wie Gold, Kupfer, Silber, Palladium und vielen anderen. Der Rest landet im Müll und verseucht von dort aus die Umwelt, wie wir in der letzten Folge beschrieben haben – oder verschwindet, aus den Augen, aus dem Sinn, in Schubladen, Regalen, Schränken oder Garagen. Das WEEE Forum schreibt, dass Mobiltelefone auf Platz 4 der gehorteten Geräte stehen und fügt das Wort »überraschenderweise« hinzu; allerdings ist aus anderen Studien ersichtlich, dass die Bindung zum Smartphone mit starken Emotionen verbunden ist. Was die Überraschung deutlich lindern könnte.

² Das sind mehr als zwei pro Person, alle Babys und Kleinkinder mit eingeschlossen!

Magdalena Charytanowicz, Kommunikationsmanagerin des WEEE Forums, fasst zusammen: Allein die im Jahr 2022 produzierten kleinen EEE-Geräte wie Mobiltelefone, elektrische Zahnbürsten, Toaster oder Kameras werden ein geschätztes Gesamtgewicht von 24,5 Millionen Tonnen erreichen, viermal so viel wie die Große Pyramide von Gizeh. Das Forum hat mehrere Vorschläge, was zu tun ist:
— Alle, die mit Elektroschrott zu tun haben, müssen rechtlichen Mindestverpflichtungen unterworfen werden. (Im englischen Original heißt es »all entities«, das umfasst also sowohl Einzelpersonen, als auch Organisationen, Firmen, Staaten, juristische Personen …)
— Pfand- und Rückgabesysteme
— Digitale Produktpässe
— Internationale, erweiterte Herstellerhaftung, die auf staatenübergreifenden Standards für den Umgang mit und die Unschädlichmachung von EEE-Schrott basieren, und übereinstimmende Definitionen, Kategorien, Methodologien und Prinzipen.

In Ansätzen finden sich einige dieser Ideen schon in aktuellen Gesetzen wieder. Seit dem 1.1.2022 gilt das umständlich betitelte »Erste Gesetz zur Änderung des Elektro- und Elektronikgerätegesetzes«³, kurz »ElektroG«; laut diesem müssen seit Juli dieses Jahres auch Lebensmittelhändler ab einer Verkaufsfläche von mindestens 800 m², die mehrmals im Jahr oder durchgehend Elektro- und/oder Elektronik-Artikel anbieten, kostenlos E-Waste annehmen und dem Recycling zuführen. Im Selbstversuch zeigte sich, dass das bislang nur mäßig funktioniert; bei einem Supermarkt der Kette mit dem blauen E auf gelbem Grund war die Abgabe einer ausgedienten elektrischen Zahnbürste nicht möglich. Deswegen hier der Tipp, lieber gleich zu einem Elektro-Markt zu gehen; auch wenn der »Geiz-ist-geil«-Slogan immer noch unangenehm im Gedächtnis nachhallt, nehmen diese widerspruchslos bis zu drei Altgeräte pro Produktgruppe an.

³ In Social-Media-Posts würde man ein »Gesetz zur Änderung eines Gesetzes« wohl mit einem herzlichen »lol« kommentieren.

Fast noch interessanter ist, dass auch der Versand umfassender in die Pflicht genommen wird: Wie die Industrie- und Handelskammer Karlsruhe berichtet, muss bei der Lieferung in private Haushalte gleichzeitig eine kostenlose Rücknahme angeboten werden, worauf sogar ausdrücklich hingewiesen werden muss, und die Kund*innen müssen beim Kauf gefragt werden, ob sie Altgeräte zurückgeben möchten. Die IHK ergänzt: Dies gilt bei drei der sechs Gerätekategorien (d. h. den eher größeren, sperrigen) auch für Internethändler. Bei der nächsten Bestellung könnte es also gleich heißen: »Hallo, Amazon, ich hab hier noch einen alten Kühlschrank stehen, nehmt den bitte gleich mit.«

Auch die Palette der Produkte, die in die Definition von WEEE oder E-Waste fallen, wurde erweitert. Vor allem Kleinteile, wie zum Beispiel elektrische Möbelteile oder Kleidung mit Elektro-Accessoires wie blinkende Sportschuhe, und eine ganze Reihe weiterer, die früher als nicht betroffen eingestuft wurden, müssen jetzt auch zurückgenommen und recyclet werden.

Aber: Wie heise online schon vor Inkrafttreten des Gesetzes bemängelt hatte, wurde eine wesentliche Forderung des Bundesrats nicht umgesetzt, nämlich die aus Sicht der Kreislaufwirtschaft völlige Fehlentwicklung von fest verbauten Akkus in immer mehr Produkten (Smartphones, Laptops etc.) dringend per Gesetz zu beenden, was auch eine Forderung der EU-Kommission ist. Trotz der vielen Fürsprecher hat dieser Passus nicht den Weg ins Gesetz gefunden. Und auch ein Vorschlag von Grünen und Linken, ein Pfandsystem für Mobilgeräte einzuführen, fiel durch.

Alles in allem ist man versucht, das leider immer noch viel zu oft gültige Fazit »too little, too late« zu ziehen. Bleibt abzuwarten, wie das neue, EU-weite Lieferkettengesetz ausfallen wird, in dem auch weiterreichende Umweltschutz-Auflagen festgelegt werden sollen. Der deutsche Alleingang, das Lieferkettensorgfaltspflichtengesetz (noch so ein »lol«), das am 1.1.2023 in Kraft treten soll, hat vorab von BUND und Deutscher Umwelthilfe erarbeitete Vorschläge nicht übernommen. Was auch eine Analyse der Initiative Lieferkettengesetz (PDF) kritisiert: Das Gesetz berücksichtigt Umweltaspekte nur marginal, eine eigenständige und umfangreiche umweltbezogene Sorgfaltspflicht fehlt (…) Zwar erfasst das Gesetz bisher die Schutzgüter Boden, Wasser und Luft im Rahmen der menschenrechtlichen Risiken, massive Umweltzerstörungen durch Biodiversitätsverlust werden hingegen nicht erfasst, auch das Klima findet keine Berücksichtigung als Schutzgut.

Too little also. Hoffentlich nicht auch too late.

Zu kaputtbar (IV)

+

Billigproduktion, geplante Obsoleszenz, schlecht bis gar nicht reparierbare Geräte, zu hohe Reparaturkosten – Gründe gibt es viele, von denen wir einige auch in den bisherigen Folgen schon erwähnt haben, aber am Ende steht immer wieder dieselbe Feststellung: Wir Konsumenten schmeißen immer noch viel zu viel weg. Was das für Auswirkungen hat, wollen wir heute etwas genauer beleuchten.

Allein im vergangenen Jahr wurden laut The Roundup weltweit 57,4 Millionen Tonnen Elektro- und Elektronik-Schrott (kurz: E-Waste) weggeworfen. Wer’s anschaulich braucht: Das entspricht dem Gewicht von 5683 Pariser Eiffeltürmen. Und zum Vergleich: 2014, als damit begonnen wurde, den sogenannten »Global E-Waste Monitor« zu erstellen, waren es noch 41,8 Millionen Tonnen. Eine Zunahme um fast 38 % in sieben Jahren.

Das ist im Fall von E-Waste ganz besonders schlimm. Denn der elektrische und elektronische Abfall enthält zahlreiche giftige Substanzen, wie zum Beispiel Blei, Quecksilber oder auch Cadmium. Sie und andere toxische Materialien im E-Waste sind krebserregend, beeinträchtigen die Fruchtbarkeit, schädigen innere Organe. Nicht nur deswegen wäre fachgerechtes Recycling bei E-Schrott von größter Bedeutung. Aber: Der oben schon erwähnte Roundup-Bericht stellt fest, dass global nur 17,4 % tatsächlich recyclet werden. Der Rest, also der allergrößte Teil, wird auf illegalen Müllkippen im Globalen Süden »entsorgt«. Beispielsweise im westafrikanischen Ghana, in einem Stadtteil von Accra: Auf den Müllhalden von Agbogbloshie landet ein großer Teil des europäischen E-Abfalls.

2013 erklärte die Umweltorganisation Blacksmith Institute deshalb Agbogbloshie zu einem der weltweit verseuchtesten Orte. Zu einem großen Teil sind es Kinder und Frauen, die dort - völlig ohne Schutzkleidung oder auch nur Atemmasken – mit bloßen Händen den giftigen Abfall zerlegen, um verkäufliche Reststoffe wie zum Beispiel Eisen zu finden. Im nächsten Schritt wird der Müll oft verbrannt, um weitere wertvolle Rohstoffe zugänglich zu machen; dabei entstehen hochgiftige Gase, die von den Arbeiter*innen regelmäßig eingeatmet werden. Und schließlich wird alles, was nicht verwertbar ist, vergraben – was wiederum die Böden und das Grundwasser verseucht.

Auf der anderen Seite der Lebensspanne von Elektrik und Elektronik steht die Gewinnung der Rohstoffe. Die Nachfrage nach Gold, Kobalt, Seltenen Erden und anderen Bestandteilen ist erheblich gewachsen, aber auch deren Abbau ruft massive Umweltverschmutzungen hervor und ist meist mit schweren Menschenrechtsverletzungen verbunden. Kobalt, um nur einen Bestandteil zu nennen, wird für Akkus benötigt. Seine Gewinnung liegt oft in den Händen von Kindern, die nicht einmal einen Mindestlohn ausgezahlt bekommen, dafür aber bei der Arbeit täglich ihr Leben riskieren. Und das Erdreich um Kobaltminen wie auch umliegende Gewässer sind allermeistens schwer verseucht.

Und auch Seltene Erden sind in ihrem Gewinnungsprozess eine große Belastung für die Umwelt. Der allergrößte Teil der weltweiten Produktion liegt in China, und das deutsche Umweltbundesamt hat schon 2015 eine Fallstudie zu den Auswirkungen auf die Umwelt, aber auch soziale Folgen der Gewinnung von Seltenen Erden in Bayan Obo (Innere Mongolei) veröffentlicht. Die Forscher stellen darin fest: Durch die unsachgemäße Entsorgung der Abwässer kommt es zu einer Kontaminierung der gesamten umliegenden Wassersysteme mit entsprechenden Belastungen des Trinkwassers und landwirtschaftlich genutzten Wassers (…) Die entstehende Luftverschmutzung – vor allem Staub – kann abhängig von der physikalisch-chemischen Zusammensetzung hautreizend, giftig oder krebserregend sein. Die weitläufigen Bergeteiche von Bayan Obo enthalten zudem, wie oben beschrieben, eine Vielzahl von toxischen Chemikalien und radioaktive Elemente. Aufgrund dieser Belastungen ist die Sterblichkeitsrate durch Lungenkrebs deutlich erhöht.

Es sei noch hinzugefügt, dass der größte Teil des Elektromülls zwar aus Asien stammt – aber der Pro-Kopf-Anteil trotzdem in Ländern wie Deutschland und den USA mit großem Abstand am höchsten ist; in einem Bericht des Bayerischen Rundfunks aus dem Jahr 2020 heißt es: Zwar fielen in Deutschland 2019 nur knapp zwei Millionen Tonnen Elektroschrott an (zwölf Millionen Tonnen in ganz Europa), während über 46 Prozent in Asien entstanden (knapp 25 Millionen Tonnen), aber: Mehr als 20 Kilogramm Elektroschrott pro Kopf entstehen in Deutschland, genau wie in den USA. Der weltweite Durchschnitt liegt mit 7,3 Kilogramm E-Waste pro Kopf weit darunter. Menschen in Afrika haben daran den kleinsten Anteil mit gerade einmal 2,5 Kilogramm Elektroschrott pro Person und Jahr.

Andererseits liegt die deutsche Recyclingrate weit höher als der internationale Durchschnitt, bei über 50 % – das ist zwar besser, aber längst noch nicht gut. Was schon getan wird und was geplant ist, um das E-Waste-Problem und die Produktionsbedingungen von E-Geräten zu verbessern, werden wir in der nächsten und letzten Folge unserer kleinen Serie »Zu kaputtbar!« genauer unter die Lupe nehmen.

Der Klima-Supercomputer

+

Nein, unsere Serie »Zu kaputtbar« ist noch nicht zu Ende – aber aus aktuellem Grund unterbrechen wir sie heute und berichten von einer spannenden Einweihung. Deutschlands einziger Super-Rechner, der ausschließlich für Klimaberechnungen genutzt werden wird, ist in Hamburg am vergangenen Donnerstag in Betrieb gegangen.

Eigentlich müsste man den Begriff im Plural benutzen: »Levante«, wie das System heißt, besteht aus 2.832 eng vernetzten Computern mit je zwei Prozessoren, die zusammen eine Spitzenrechenleistung von 14 PetaFLOPS liefern, wie Jana Meyer schreibt, Presse- und Öffentlichkeitsbeauftragte des Deutschen Klimarechenzentrums, das »Levante« betreibt. Für alle, die nicht hundertprozentig sattelfest im Zählen von Gleitkommaoperationen sind: 14 PetaFLOPS sind 14 Billiarden mathematische Operationen – pro Sekunde.

800 Terabyte groß ist der Hauptspeicher, das entspricht etwa 100.000 modernen Laptops, und die Datenübertragung innerhalb des Systems kann bis zu bis zu 200 GBit/s erreichen. Dank dieser erstaunlichen Werte wird das System die komplexen Berechnungen durchführen können, die zur Erfassung und Modellierung von Klimaphänomenen notwendig sind, und ist laut Presseerklärung der einzige allein für die Klimaforschung genutzte Supercomputer in Deutschland und ermöglicht fortan neue Perspektiven für die computergestützte Klimawissenschaft.

Zu kaputtbar! (III)

+

In der letzten Folge ging es um Reparaturen von kaputtgegangenen (Elektro-)Geräten. Und um den typischen Fall einer Waschmaschine, die kurz nach Ablauf der Garantie den Geist aufgab und deren Reparatur einschließlich Anfahrt teurer geworden wäre als der Neukauf. Typisch in sofern, als wahrscheinlich alle, die schon mal etwas gekauft haben, auch schon erlebt haben, wie das Gekaufte seltsamerweise nur ein paar Tage nach Garantieende nicht mehr funktionierte. Stimmt’s?

Das ist keine anekdotische Erfahrung und auch kein Zufall, sondern es handelt sich dabei um die »geplante Obsoleszenz«. Der Duden erwähnt als Übersetzung von »obsolet« die Bedeutungen nicht mehr gebräuchlich; nicht mehr üblich; veraltet oder auch überflüssig. So weit, so harmlos, aber schon wenn man das Substantiv dazu nachschlägt, wird das Nachschlagewerk der deutschen Sprache deutlich: Obsoleszenz, die — die [in seiner Herstellungsweise, seinen Materialien oder Ähnlichem angelegte] Alterung eines Produkts, das dadurch veraltet oder unbrauchbar wird. Laut Duden kann man also getrost das Adjektiv »geplant« weglassen, die Planung steckt nämlich schon im Wort.

Hersteller geben es natürlich ungern zu, aber ein Urban Myth ist die O. deswegen noch lange nicht: Schon 1932 veröffentlichte der US-amerikanische Kaufmann Bernard London einen Aufsatz mit dem Titel »Ending the Depression Through Planned Obsolescence«. Die Konsumenten, stellte er darin fest, sind zu vorsichtig geworden und kaufen nicht mehr von allein neue Dinge, sondern benutzen die alten einfach immer weiter! London wirft den Kunden vor, dass sie verantwortlich sind für die hohe Zahl von Arbeitslosen zu jener Zeit. Und dass sie es Produzenten unnötig schwer machen, vernünftig zu planen. Also: Briefly stated, the essence of my plan for accomplishing these much-to-be-desired-ends is to chart the obsolesce of capital and consumption goods at the time of their production. In etwa bedeutet das: Kurz, die Essenz meines Plans zum Erreichen dieser sehr wünschenswerten Ziele [die Arbeitslosigkeit zu beenden, Wohlstand wiederherzustellen und den Lebensstandard zu verbessern, die Red.] ist es, die Veralterung von Investitions- und Konsumgütern zum Zeitpunkt ihrer Herstellung festzulegen.

Allerdings schlug London damals, vor neunzig Jahren, vor, dass die Konsumenten informiert würden über die Lebensdauer der Produkte und eine Regierungsbehörde mit der Zerstörung der sozusagen »abgelaufenen« Güter beauftragt wäre. Das ist heute nicht der Fall. Wir kaufen Artikel im Glauben, dass sie haltbar seien, tatsächlich aber haben sie eine versteckte »Selbstzerstörung« eingebaut. So beschreibt es auch das Magazin CHIP in einem Artikel aus dem Oktober 2017: Die geplante Obsoleszenz ist eine Produktstrategie, die bewusst Schwachstellen in ein Produkt einbaut. (…) Nachweisbar ist die geplante Obsoleszenz leider nicht. Die Konzepte sind ausgeklügelt und so gestrickt, dass eine Abgrenzung zum normalen Verschleiß nicht möglich ist. Die Deutsche Umwelthilfe erwähnt zusätzlich andere, subtilere Formen wie zum Beispiel die fehlende Reparierbarkeit oder auch die Nichtkompatibilität mit anderen Produkten.

So dass in der Konsequenz das Umweltbundesamt 2016 in einer Studie feststellte, dass die Erst-Nutzungsdauer von den meisten untersuchten Produktgruppen in den letzten Jahren abgenommen hat. Die Firma Apple gibt das indirekt sogar zu, wenn sie schreibt: (…) years of use, which are based on first ownership, are modeled to be four years for macOS and tvOS devices and three years for iOS, iPadOS, and watchOS devices. Drei Jahre für ein iPhone – das klingt schon fast viel, denn nicht zuletzt sind es oft auch die Verbraucher, die ein neues wollen, auch wenn das alte noch gut funktioniert. Das allerdings ist wiederum auch so gewollt: Die Verwandlung von Technik in Mode, wie es der Obsoleszenz-Ratgeber von Utopia.de nennt, sorge dafür, dass die Apple-Kunden immer das neueste haben wollen.

Auf derselben Seite gibt es aber auch eine ganze Reihe von Tips, wie Kunden gegen den Verschleiß vorgehen können. Die einmal durchzugehen lohnt sich, hier nur ein paar Ausschnitte für einen ersten Eindruck: Kaufe nichts, nur weil es (gerade) billig ist. (…) Meide Produkte, die allzu deutlich aus asiatischer Billigproduktion stammen. (…) Kaufe nur, was du wirklich brauchst. (…) Wer sich von vorneherein für Klassiker entscheidet, wird lange damit zufrieden sein. Und nicht zuletzt: Reparieren und Selbermachen. Hier hat die Seite einige Links zu Repair-Cafés, der »Maker«-Bewegung und zu DIY parat.

Es geht also auch anders – aber parallel müssen Gesetze her, die den Herstellern wesentlich engere Grenzen setzen. Da gibt es durchaus Bewegung; über die aktuelle Entwicklung werden wir demnächst hier berichten.

Zu kaputtbar! (II)

+

Das Zentrum für Europäischen Verbraucherschutz e. V. in Kehl, kurz EVZ, hat in der jüngsten Ausgabe seiner »Eurobarometer« genannten regelmäßigen Umfrage herausgefunden: 77 Prozent aller Europäer*innen wünschen sich, dass ihre Elektrogeräte reparierbar sein sollten, statt dazu gezwungen zu sein, ständig neue kaufen zu müssen. Die Verbraucher*innen sind also längst viel weiter als die Hersteller – auch wenn die seit März 2021 durch die europaweit geltende Ökodesign-Richtlinie schon mit einer Reihe von Auflagen an die Kandare genommen wurden.

Für Geräte wie zum Beispiel Geschirrspüler und Waschmaschinen, Kühl- und Gefrierschränke, Bildschirme und Fernseher gelten ein paar einfache Bedingungen, die Reparaturen attraktiver machen sollen. So müssen Ersatzteile mit üblichen Werkzeugen austauschbar sein und für eine Mindestzahl von Jahren lieferbar bleiben (sieben bis zehn, je nach Gerätetyp), die Lieferung muss innerhalb von maximal 15 Tagen passieren, »nicht sicherheitsrelevante Teile« wie Scharniere oder Griffe dürfen die Verbraucher*innen selbst kaufen. Es gibt noch weitere Regeln, eine Übersicht findet sich auf der EVZ-Seite.

Aber – all das gilt erst seit anderthalb Jahren und setzt sich erst langsam durch.

Momentan sieht es immer noch eher finster aus. Schon im März 2020 stellte die Stiftung Warentest in einer Online-Umfrage mit über 10.000 Teilnehmer*innen fest: Was einmal kaputt geht, bleibt es meistens auch. Aus unterschiedlichen Gründen – vor allem aber aufgrund der hohen Kosten. Ein Beispiel war eine Waschmaschine, die kurz nach Ablauf der Garantie den Geist aufgab und deren Reparatur einschließlich Anfahrt teurer geworden wäre als der Neukauf. Aber selbst wenn die Kunden eine Reparatur in Auftrag gegeben haben, war weit mehr als die Hälfte der Defekte nicht zu reparieren.

Ob die Reparatur Erfolg hatte, war stark von den Gerätegruppen abhängig. Nur gut ein Fünftel der Drucker konnte wieder in Schwung gebracht werden, bei Tablets, Navis und Fernsehern war es jeweils weniger als ein Drittel. Und auch Mobiltelefone und Notebooks blieben deutlich unter 50 Prozent. Spitzenreiter waren Trockner – mit auch nicht gerade überwältigenden 64 % – und Waschmaschinen (58 %).

Hinzu kommt: Ein massives Problem bei Smartphones, Tablets und zunehmend auch Laptops ist der Umstand, dass immer mehr Hersteller dazu übergegangen sind, die Akkus fest zu verbauen. Ausgerechnet jene Bestandteile mobiler Geräte, die am schnellsten versagen! Ein Austausch ist oft gar nicht, und wenn doch, dann nur in einer entsprechend teuren Spezialwerkstatt möglich.

Was vermutlich die meisten nicht wissen: Das ist seit vielen Jahren gesetzeswidrig. Denn in § 4 S. 2 des Elektro- und Elektronikgerätegesetzes (ElektroG) in der Fassung von 2015 steht eindeutig: Elektro- und Elektronikgeräte, die vollständig oder teilweise mit Batterien oder Akkumulatoren betrieben werden können, sind möglichst so zu gestalten, dass Altbatterien und Altakkumulatoren durch Endnutzer problemlos und zerstörungsfrei entnommen werden können. Das Problem ist hier das kleine Wörtchen »möglichst«. Die Einhaltung des Gesetzes ist dadurch nicht juristisch durchzusetzen.

In der früheren Fassung des Gesetzes, die zehn Jahre lang vor der Neuformulierung galt, stand noch: Elektro- und Elektronikgeräte, die vollständig oder teilweise mit Batterien oder Akkumulatoren betrieben werden können, sind so zu gestalten, dass eine problemlose Entnehmbarkeit der Batterien und Akkumulatoren sichergestellt ist. Kein »möglichst« weit und breit – ob da wohl Lobbyarbeit im Spiel gewesen sein mag?

Nicht alle Gesetze verändern sich also zum Guten; wo es aber in der jüngeren Zeit tatsächlich deutliche Verbessungen gegeben hat oder geben wird (zum Beispiel eine neue EU-Regel, die verbieten soll, Akkus fest einzubauen), werden wir in einer der nächsten Folgen beleuchten.

Neue Serie: Zu kaputtbar! (I)

+

Die Sommerpause ist vorbei, und die Cors-Tech-News eröffnen die neue Saison mit einem Mehrteiler zum Thema: Warum reparieren, wenn man neu kaufen kann?!

Der Autor dieses Texts besitzt ein Laptop, dessen STRG-Taste gebrochen ist. Es gibt sie nicht als Austausch, also müsste man die gesamte Tastatur ersetzen. Machbar, aber: Kostenpunkt bis zu € 150, je nach Lieferbarkeit. Außerdem ist ein Teil eines Kopfhörer-Steckers in der Buchse steckengeblieben; die Audio-Einheit ist eine »Black Box«, fest verlötet mit der Platine. Deren Austausch dürfte noch einmal soviel kosten. Der Reparaturservice selbst sagt: Dit lohnt sich nich, holnse sich lieber ’n Neun.

Diese Mentalität hat sich in den letzten Jahren massiv durchgesetzt. Was seltsam ist, da sich im selben Zeitraum auch das Wissen darum, dass unsere Ressourcen begrenzt sind und wir dringend unsere Müllproduktion begrenzen müssen, massiv durchgesetzt hat. Deswegen werden Getränkedosen recyclet und Plastikstrohhalme verboten, deswegen müssen Geschäfte mittlerweile alte Elektro- und Elektronikgeräte zurücknehmen.

Aber – warum wird nicht viel mehr repariert?

Das Problem hat, zumindest teilweise, seinen Anfang genommen mit Smartphones. Kleine Geräte, oft mit State-of-the-Art-Technik, die aber fast die Halbwertzeit von Designermode haben. Nach einem Jahr, spätestens nach zweien muss ein neues her. Wollen zumindest die Hersteller ihre Kunden glauben machen, indem sie ständig neue Features einbauen und mit neuen Updates ältere Hardware überfordern. Bis vor einigen Jahren warben Mobilfunk-Anbieter sogar mit Tarifen, in denen der jährliche Wechsel fest eingeplant war.

Langsam zwar, aber immerhin findet offenbar ein Sinneswandel statt; schon 2016 hat Greenpeace eine Studie beauftragt, die zu dem Ergebnis kam, dass drei von fünf befragten Deutschen lieber ein Smartphone hätten, das länger als bisher hält. (Im selben Jahr fuhr die Smartphone-Branche Absatzrekorde ein.) In einer aktuellen Studie des Kreditversicherers Euler Hermes aus dem Februar 2022 stellt dessen DACH¹-CEO Milo Bogaerts fest: Europäer tauschen ihre Geräte aktuell durchschnittlich nach rund 40 Monaten – das ist etwa ein Viertel länger als noch 2016. Und selbst im »Consumer Paradise« USA tauschen Verbraucher ihre Smartphones aktuell nach rund 24 Monaten – aber auch hier hat sich die Nutzungsdauer der Geräte seit 2016 um 30 % verlängert.

Problem ist nur: Wenn das Handy kaputt geht, geht’s ans Portemonnaie. Vor einer Woche veröffentlichte der Bundesverband der Verbraucherzentralen (vzbv) eine Untersuchung mit der Überschrift Reparaturen bei Smartphones zu teuer. Der Verband hatte eine Forsa-Umfrage beauftragt, die ergab, dass 47 Prozent der befragten Smartphone-Besitzer:innen, an deren Gerät in den letzten 24 Monaten ein Defekt aufgetreten ist, dieses nicht reparieren lassen hätten. Von ihnen gibt knapp die Hälfte (49 Prozent) an, dass dies zu teuer gewesen wäre. Daraufhin recherchierte der vzbv und stellte fest: Eine Reparatur lohnt sich finanziell oft nur bei höherpreisigen Geräten. Anders gesagt, in der Preisklasse zwischen € 300 und € 600 müssen Verbraucher:innen für die Reparatur im schlechtesten Fall mehr bezahlen als für ein neues Gerät. Der Verband hat auch ein abschreckendes Zahlenbeispiel: Bei einem Neupreis von 345 Euro hätte die Reparatur des Displays demnach 369 Euro gekostet.

Die vzbv-Vorständin Ramona Pop fordert deswegen einen Reparaturbonus, also eine finanzielle Förderung von Reparaturen. Eine Senkung der Mehrwertsteuer könnte zudem die Kosten für Reparaturdienstleistungen reduzieren. Vor allem brauchen wir einen Reparaturindex, über den Verbraucher:innen leicht erkennen, wie gut und zu welchem Preis sich ein Gerät reparieren lässt. So ein Index könnte auch den Wettbewerb der Hersteller fördern, leicht und günstig zu reparierende Geräte auf den Markt zu bringen.

So viel zum Thema »Reparierbarkeit von Handys«; die Richtung stimmt zwar, aber da ist noch viel Luft nach oben. In den nächsten Folgen wird es um andere Geräte des Alltags gehen und um geplante Obsoleszenz; darum, was Rohstoffbedarf einerseits und Müllproduktion andererseits in unserer Umwelt anrichten – und darum, wie es besser geht und wo es schon besser gemacht wird.

¹ Deutschland – Österreich – Schweiz

Wasserstoff auf dem Wasser

+

Das erste Element des Periodensystems war auch schon letzte Woche Thema – diesmal geht es um einen ganz besonderen Einsatzbereich.

Die wenigsten Menschen haben wohl, wenn es um CO₂-Emissionen geht, Schiffe auf dem Radar. Aber schon allein Transporte auf dem Wasserweg tragen laut der Europäischen Umweltagentur (EUA) in Kopenhagen gut drei Prozent zum Kohlendioxid-Ausstoß der EU bei, an die 150 Tonnen im Jahr 2019. Und auch wenn das vielleicht erstmal trotzdem noch nicht viel klingt: Das maritime Handelsvolumen steigt kontinuierlich und rasant, global ist der Schiffsverkehr schon viele Jahre eine der schnellstwachsenden Treibhausgas-Emissionsquellen. Da käme doch Wasserstoff eigentlich als Ersatz für fossile Brennstoffe sehr gelegen, richtig?

Einerseits, ja. Andererseits, auch das hatten wir vergangene Woche schon erläutert: H muss im gasförmigen Zustand unter Druck gespeichert werden. Das erfordert Spezialbehälter, die sind groß und schwer – und damit das Letzte, was auf ein Schiff gehört, das ja wirtschaftlich arbeiten soll und daher seine Ladekapazitäten besser mit echter Fracht ausnutzt. Auf der Suche nach einer Lösung für dieses Dilemma ist nun die Fraunhofer-Gesellschaft ein gutes Stück vorangekommen, genauer: das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS.

Zusammen mit Partnern haben einige dort Forschende das Projekt »HyMethShip« entwickelt. Kürzlich erschien eine Pressemitteilung, in der die EU-geförderte Forschungsgruppe einen Durchbruch meldete: Sie hat nun eine Technologie entwickelt, die Wasserstoff als emissionsfreies Antriebskonzept nutzt und gleichzeitig sehr sicher ist, wie es in der Veröffentlichung heißt. Und zwar, indem sie einen kleinen »Umweg« nimmt und Methanol, den einfachsten aller Alkohole, als flüssigen Wasserstoffträger verwendet.

Funktionieren soll das dann so: Im Hafen wird Methanol getankt, aus dem auf hoher See über das momentan bedeutendste Verfahren zur H-Herstellung, die Dampfreformierung, Wasserstoff für den Schiffsantrieb gewonnen wird. Damit schlagen wir zwei Fliegen mit einer Klappe: Der Schiffsantrieb ist nahezu vollkommen emissionsfrei, zugleich benötigt man keine großen und potenziell gefährlichen Wasserstofftanks, erklärt Dr. Benjamin Jäger von der Abteilung Katalyse und Materialsynthese am Fraunhofer IKTS.

Denkbar ist die Technologie einerseits für den Fährverkehr zwischen zwei Häfen, an denen Methanol-Tankstationen stehen können. Mittelfristig ist sie aber auch für Container- und Kreuzfahrtschiffe interessant, wie es in der Pressemitteilung heißt. Eine grüne Kreuzfahrt ohne Treibhausgasemissionen und ohne große Schornsteine, die den Ruß aus der Schwerölverbrennung in die Luft blasen, würde Kreuzfahrten auch für umweltbewusste Passagiere attraktiv machen.

Wasserstoffspeicher aus Industrieabfällen

+

In unregelmäßigen Abständen kommt beim Thema erneuerbare Energien immer mal wieder auch Wasserstoff (chemisches Symbol: H) auf den Tisch. Er kann erhebliche Mengen Energie speichern und so einerseits transportabel machen, andererseits für Versorgungsengpässe vorhalten. Aber die Speicherung von Wasserstoff ist wiederum auch gar nicht so einfach, immerhin handelt es sich unter Normalbedingungen um ein Gas. Nun scheint aber eine Lösung für eine umweltfreundliche H-Speicherung in greifbare Nähe gerückt.

In einem Interview sagte Armin Schnettler, Präsident des Verbands der Elektrotechnik Elektronik Informationstechnik e.V. (VDI), Anfang des Jahres: Ohne eine ausgeprägte Wasserstoffwirtschaft wird die zweite Stufe der Energiewende, die Dekarbonisierung, nicht zünden! (…) Daher muss der ungehinderte Zugang zu Wasserstoff und dessen Derivaten für Unternehmen so selbstverständlich werden wie ein Stromanschluss und schnelles Internet. Doch um H zu speichern, also lager- und transportfähig zu machen, bedarf es bislang hochreiner Metallhydride. Die Gewinnung oder Herstellung dieser Materialien allerdings setzt große Mengen von CO₂ frei – ist also keine gute Idee!

Eine wesentlich bessere hatte das Helmholtz-Zentrum Hereon für Wasserstofftechnologie im schleswig-holsteinischen Geesthacht: Vergangenen Donnerstag veröffentlichte das Institut eine Presseerklärung, laut derer dort Forschende herausgefunden haben, dass sich die Wasserstoffspeicher auch aus recycelten Industrieabfällen herstellen lassen. Das Ergebnis: eine deutlich klimafreundlichere Herstellung der Metallhydride.

Dr. Claudio Pistidda, Wissenschaftler am Hereon-Institut für Wasserstofftechnologie, wird darin zitiert mit den Worten Ansätze der Kreislaufwirtschaft für die Herstellung von Wasserstoffspeichermaterialien zu nutzen, ermöglicht es uns, die Energie-Herausforderungen unserer Zeit auf eine nachhaltigere Weise anzugehen. Offenbar kann für die Herstellung der Metallhydriden sogar Material verwendet werden, dass ansonsten schwer bis gar nicht recyclebar ist. Noch einmal die Presseerklärung: Obwohl es für die meisten in der Industrie verwendeten Metalllegierungen erfolgreiche Recyclingverfahren gibt, geht immer noch eine erhebliche Menge davon verloren. Wie Hereon-Forschende jetzt zeigen, könnte die Herstellung von Metallhydriden große Mengen dieser Industrieabfälle auffangen, indem dafür ansonsten nicht recycelbare Materialien verwendet werden. Metallhydride scheinen im Gegensatz zu metallischen Legierungen, z.B. für Hochleistungsbauzwecke, ziemlich unempfindlich gegenüber der genauen Legierungszusammensetzung zu sein.

Vorausgesetzt, der Wasserstoff wurde zuvor auch mit nachhaltigen Methoden gewonnen, bietet sich hier also das Potential für den wirklich umweltfreundlichen Einsatz der Nummer eins im Periodensystem.

Elster-Drossel: Flink ist ganz was anderes

+

Manchmal hilft einem beim Schreiben eines Textes das Real Life auf die Sprünge. Schon länger haben wir einen Beitrag zum Thema »Digitalisierungs-Chaos bei Behörden« geplant, und dann wird doch tatsächlich passend die Finanzamt-eigene (diebische?) Elster flügellahm. Vielen Dank für das maßgeschneiderte Momentum!

In diesem Text wird es zwar nicht nur um die Software der Finanzbehörden gehen, aber fangen wir doch ruhig mal damit an. Am 10. jedes quartalsersten Monats (also Januar, April, Juli und Oktober) sind spätestens die Umsatzsteuer-Voranmeldungen fällig. Zum 1. Juli gab es aber in diesem Jahr auch größere Änderungen bei der Grundsteuer, aufgrund derer Hauseigentümer*innen eine neue Erklärung abgeben müssen. Beides zusammen verkraftete der Elster-Server nicht. Aufgrund enormen Interesses an den Formularen zur Grundsteuerreform kommt es aktuell zu Einschränkungen bei der Verfügbarkeit, stand ab Sonntag auf der Website, seit Montagmittag war dann der Zugang komplett gesperrt – mit dem Hinweis auf »Wartungsarbeiten«.

Betreiber der Plattform für die »ELektronische STeuerERklärung« ist das Bayerische Landesamt für Steuern, von dort wurde dem SPIEGEL mitgeteilt, dass an diesem Wochenende zeitweise weit über 100.000 Zugriffe registriert wurden. In den News des Tages beim selben Magazin wird SPIEGEL-Netzwelt-Autor Markus Böhm zitiert; der ist zu recht überrascht und ernüchtert, dass das wichtigste Steuerportal offenbar schon bei einer niedrigen sechsstelligen Zahl von Zugriffen schlappmacht. Nur mal so zum Vergleich: Die Server der Wikipedia verarbeiten zwischen 25.000 und 60.000 Zugriffe pro Sekunde, je nach Tageszeit. Pro Sekunde.

Nun soll man ja eigentlich nicht noch mal nachtreten, wenn das Gegenüber schon am Boden liegt, aber das Chaos in den Bundes- und Länderbehörden, wann immer es um Digitales geht, ist eben kein temporäres K.O., sondern ein seit Jahren immer wieder angeprangerter und doch nie ernsthaft behobener Dauerzustand. Der mit Netzdingen ausgesprochen vertraute SPIEGEL-Autor Sascha Lobo hat darüber mit zuverlässiger Regelmäßigkeit geschrieben, zuletzt zum Beispiel am 1. Juni: 2019 sagte die damalige estnische Staatspräsidentin, sie sei überrascht, dass Deutschland in der digitalen Verwaltung 20 Jahre zurückliege. (In einem Ranking für digitale Wirtschaft und Gesellschaft steht Estland auf Platz 1 von 27, Deutschland fast am Ende des zweiten Drittels auf Platz 16.)

Vor einer Wochen schrieb Malaika Rivuzumwami in der taz: 2021 lag Deutschland auf Platz 22 von 27 in der EU bei Online-Behördendiensten und auf Rang 61 im UN-Index zur digitalen Teilhabe – hinter Armenien und Oman. Und sie erinnert daran, dass es langsam eilt, denn schon seit 2013 gibt es das E-Government-Gesetz, das eine Modernisierung und Zentralisierung vorsieht, und das Onlinezugangsgesetz von 2017 verpflichtet Bund, Länder und Gemeinden, bis spätestens Ende 2022 ihre Verwaltungsleistungen auch elektronisch über Verwaltungsportale anzubieten und diese miteinander zu einem Portalverbund zu verknüpfen, wie es in der Wikipedia heißt. (Dazu, wie schwierig es noch mit der Verknüpfung werden dürfte, steht weiter unten mehr.)

Und im Juni schrieb auch Hannah Krolle im Handelsblatt zum Thema; ihre Überschrift: Digitalchaos Behörden: Sechs Gründe, woran es hakt. Sie führt den Fachkräftemangel auf Platz eins der Ursachen an, den aufzufangen dann mit bestehendem Personal versucht wird – was zum Scheitern verurteilt ist, weil Beamte mit juristischer Ausbildung sich nicht mal eben in IT-Probleme einarbeiten können. Platz 3 der Liste nehmen »Einstellungshürden« ein: Oft, so berichtet ein Behördenleiter dem Handelsblatt, würden die strengen Einstellungsvoraussetzungen ein Recruiting aus der Informatik oder der Wirtschaft ohne Beamtenlaufbahn gar nicht zulassen.

Sollte es der Amtsschimmel sein, dessen Wiehern die Innovation verscheucht? Immerhin deutet Grund Nummer vier in eine ähnliche Richtung: Start-ups bekommen oft gar nicht mit, wenn die öffentliche Hand Aufträge vergibt; und wenn doch, dann sind die Vergabeprozesse fast unüberwindbar kompliziert – woran allerdings auch das EU-Vergaberecht einen Anteil hat.

Schließlich bleiben laut dem Handelsblatt noch die letzten beiden Gründe: Der deutsche Föderalismus, eigentlich eine Errungenschaft, macht sich schon in der Corona-Krise oft bremsend bemerkbar. Und direkt daran anknüpfend ist sechstens die uneinheitliche Softwarearchitektur innerhalb von Behörden Grund für schleppenden Fortschritt, angefangen bei nicht kompatiblen Betriebssystemen: Jede Behörde kocht ihr eigenes digitales Süppchen. Die Wunschvorstellung wäre, dass alle mit demselben System arbeiten, berichtet ein IT-Dienstleister. Doch das sei selten der Fall.

Weg mit dem Plastik

+

Wer noch nicht davon gehört hat, liest, hört und sieht wirklich gar keine Nachrichten: Plastik ist ein gewaltiges Problem. Vor allem seine Entsorgung – die Ozeane sind randvoll mit Kunststoffmüll und Mikroplastik, wilde Halden in der Natur, aber auch in Stadtregionen verseuchen das Grundwasser und entzünden sich immer wieder, wobei giftige Gase freiwerden. Das belastet neben Flora und Fauna auch die Menschen. Aber es gibt hier und da Aussicht auf Besserung.

Ein Thema sind in Plastikfolie verpacktes Obst und Gemüse; da hat ein findiges Forscherteam um den Aerosol- und Nanophysiker Philip Demokritou und den Zellbiologen und Bioingenieur Kevin Kit Parker von der Harvard University jetzt eine spannende Forschung vorgestellt: Die Wissenschaftler umhüllten Avocados mit feinen Fäden aus Pullulan, einem Vielfachzucker, der bereits in Mundwassern, als Gelatine-Ersatz für die Umhüllung von Arzneikapseln und in Japan auch schon als Cellophan-Ersatz verwendet wird. Diese Fäden reicherten die Forscher mit Thymianöl, Zitronensäure und Nisin an; letzteres ist ein natürliches, von Milchsäurebakterien produziertes, antibiotisch wirkendes Peptid. Die drei Stoffe wirken allesamt gegen zahlreiche Mikroorganismen.

Die so ummantelten Avocados hielten sich wesentlich länger als unverpackte Vergleichsfrüchte; nach einer Woche Lagerung bei 22 °C hatten 90 % der unverpackten Avocados sichtbare Gammelstellen, von den Pullulan-behandelten waren es nur die Hälfte. Pullulan ist in drei Tagen im Erdreich abbaubar und lässt sich problemlos von den behandelten Früchte abwaschen. DER SPIEGEL, der ebenfalls über die Studie berichtete, zitiert Demokritou mit den Worten: Ich bin nicht gegen Plastik, aber ich bin gegen erdölbasierte Kunststoffe, die wir immer wieder wegwerfen, weil nur ein winziger Teil davon recycelt werden kann.

In einem weiteren SPIEGEL-Artikel wird eine Studie der University of Queensland in Australien vorgestellt; darin fanden die beteiligten Forscher heraus, dass Larven von Zophobas morio (Großer Schwarzkäfer), auch als »Superwürmer« bekannt, mithilfe von Mikroorganismen in ihren Eingeweiden Polystyrol verdauen können. Im Original-Paper heißt es dazu: Wir entdeckten mehrere kodierte Enzyme, die nachweislich Polystyrol und Styrol abbauen können, was frühere Berichte über Polystyrol-abbauende Bakterien im Darm des Superwurms bestätigt.

Mit anderen Worten: Diese Würmer verdauen Plastik und machen es so unschädlich. Und sie nehmen sogar an Gewicht zu, wenn auch nur geringfügig, was im Vergleich zu den mit Kleie gefütterten Würmern zu niedrigeren Verpuppungsraten führte. Und trotzdem: Sie sind also eine potentielle Lösung zum Abbau von Plastik in der Umwelt. Sicherlich ist die Vermeidung von erdölbasierten Kunststoffen der wichtigste Schritt, aber die vorhandenen gewaltigen Plastik-Altlasten müssen auch entsorgt werden; die Kombination verschiedener Bio-Technologien kann uns dabei helfen, die Sünden der Vergangenheit in naher Zukunft zu bewältigen.

Käfer im Tee

+

Zugegeben: Diese Überschrift ist grob vereinfacht. Niemand muss sich Sorgen machen, dass in der nächsten Tasse Heißgetränk plötzlich das große Flattern beginnt. Vielmehr geht es um Insekten-DNA, die mit einem neuen Verfahren in getrockneten Pflanzen nachgewiesen werden kann.

Der Trierer Biogeograf Henrik Krehenwinkel und seine Kolleg*innen Sven Weber, Sven Künzel und Susan R. Kennedy haben kürzlich in der Fachveröffentlichung Biological Letters einen Forschungsartikel veröffentlicht, in dem sie schreiben: Die Analyse von Umwelt-DNA (Environmental DNA analysis, eDNA) hat das Feld des Biomonitorings in den vergangenen Jahren revolutioniert (…) Hier zeigen wir, dass getrocknetes Pflanzenmaterial eine vielversprechende Quelle für eDNA von Arthropoden ist.

Zu den Arthropoden, umgangssprachlich auch Gliederfüßer genannt, gehören Insekten, Tausendfüßer, Krebs- und Spinnentiere. Zusammen machen sie etwa 80 % der lebenden Tierarten aus. Und mit Biomonitoring, das mehrere Wissenschaftsdisziplinen mit vielen Einsatzbereichen umfasst, ist in diesem Fall die Erfassung des Zustands von Pflanzen- und Tierbeständen und deren Zusammenleben gemeint, mit der sich die Umweltqualität ermitteln lässt.

Mit das Spannendste an der aktuellen Studie ist, dass sie nicht an Blattoberflächen von Pflanzen, sondern im gesamten trockenen Pflanzenmaterial nach Insekten-Erbgut sucht. Denn auf der Oberfläche werden DNA-Spuren schnell abgetragen, durch UV- und Wassereinfluss zum Beispiel. Innerhalb der Pflanzen aber bleibt das Material länger erhalten und ist so ein genauerer Indikator für Insekten-DNA. Außerdem können so auch Spuren von Insekten nachgewiesen werden, die im Innern der Blätter, Stengel, Stämme und Wurzeln leben. (Besser gesagt: gelebt haben.)

Das ist nicht nur zur Erforschung aktueller Biodiversität interessant, sondern auch als Möglichkeit, historische Quellen – zum Beispiel alte Pflanzenreste in Museen – mit aktuellen zu vergleichen und so etwa das Insektensterben wesentlich genauer erfassen zu können. Für den Nachweis der Arthropoden genügen in der Regel wohl wenige Zellen, zum Beispiel aus Speichel, Exkrementen, Spinnenfäden und vielem mehr.

Zurück zur Überschrift, die natürlich trotzdem ihre Berechtigung hat: Die Forscher untersuchten unter anderem handelsübliche Tees, wie Krehenwinkel im Interview mit dem Magazin The Scientist berichtet. Tee sei strukturell einem Herbarium sehr ähnlich. Es ist im Grunde eine getrocknete Pflanze, die trocken und dunkel aufbewahrt wird … die DNA sollte daher sehr stabil sein. Und die Forscher waren vor allem von einem besonders überrascht: Wir extrahierten die DNA eines Teebeutels, ich glaube, es waren 100, 150 Milligramm getrocknetes Pflanzenmaterial. Und wir fanden in grünem Tee bis zu 400 Insekten-Spezies in einem einzigen Teebeutel (…) Wahrscheinlich, weil dieser Tee so fein gemahlen ist. Dadurch wird alle eDNA verteilt.

Europas erster Exascale-Rechner

+

Mehr als eine Trillion Gleitkommaoperationen pro Sekunde – in Ziffern sind das über 1.000.000.000.000.000.000 oder 1018 FLOPs. So viel wird ein neues Computersystem schaffen, das als erstes europäisches dieser Größenordnung in Jülich geplant ist. Wir erinnern uns: Dort gibt es bereits Europas ersten Quantencomputer mit über 5000 Qubits.

Ein weiteres Highlight also für das Forschungszentrum in der nordrhein-westfälischen Mittelstadt, das eine der größten Einrichtungen dieser Art in Europa ist. Und, wie das Forschungszentrum Jülich (FZJ) in seiner Pressemitteilung schreibt, eines, das obendrein einen guten und wichtigen Zweck erfüllen soll: Der Exascale-Rechner wird dazu beitragen, bedeutende und drängende wissenschaftliche Fragen zu lösen, etwa zum Klimawandel, zur Bewältigung von Pandemien und zur nachhaltigen Energieerzeugung, und den intensiven Einsatz von Künstlicher Intelligenz sowie die Analyse großer Datenmengen ermöglichen.

Auch der JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) getaufte neue Rechner wird, wie schon der Quantencomputer, sein eigenes Gebäude bekommen. Ab kommendem Jahr wird auf dem Campus gebaut, und das umfasst auch die Einbindung nachhaltiger Stromerzeugung – schließlich wäre es ausgesprochen fragwürdig, Klimawandelprobleme mithilfe von Atom-, Gas- oder Kohlestrom zu lösen. Bis zu 15 Megawatt wird JUPITER brauchen und ist deswegen als ›grüner‹ Rechner konzipiert und soll mit Ökostrom betrieben werden. Die vorgesehene Warmwasserkühlung soll dazu beitragen, dass JUPITER höchste Effizienzwerte erreicht.

Hier noch ein paar Details aus der Jülicher Presseerklärung: Dieser Superrechner wird von der Rechenleistung her stärker sein als 5 Millionen moderne Notebooks oder PCs. Und er wird basieren auf einer dynamischen modularen Supercomputer-Architektur, was im, nun ja: Klartext bedeutet: Bei einem modularen Superrechner werden unterschiedliche Rechenmodule miteinander gekoppelt. Dies ermöglicht es, Programmteile komplexer Simulationen auf mehrere Module zu verteilen, sodass die jeweils unterschiedlichen Hardware-Eigenschaften optimal zum Tragen kommen. Aufgrund der modularen Bauweise ist das System zudem gut darauf vorbereitet, Zukunftstechnologien wie Quantencomputer-Module oder neuromorphe Module, die die Funktionsweise des Gehirns nachbilden, zu integrieren.

Kosten des Projekts: eine halbe Milliarde Euro. Eine Hälfte davon übernimmt die europäische Super­com­put­ing-Initiative EuroHPC JU, die andere Hälfte teilen sich das Bundesministerium für Bildung und Forschung und NRWs Ministerium für Kultur und Wissenschaft.

Laut dem SPIEGEL, der ebenfalls über das Thema berichtete, gibt es weltweit offiziell erst einen anderen Supercomputer dieser Art, nämlich im US-Bundesstaat Tennessee am Oak Ridge National Laboratory (ORNL)1. Und das Magazin Golem verweist auf zwei Exascale-Systeme in China, die offenbar bereits in Betrieb genommen worden.

1 Nicht wundern, dass es beim ORNL heißt, das System schaffe a quintillion calculations per second: Die amerikanische »Quintillion« entspricht der deutschen »Trillion« (und ist im Grunde logischer …)

KI diskriminiert

+

ZDFzoom, der Dokumentations- und Reportagekanal des Zweiten Deutschen Fernsehens, hat eine neue Reihe ins Leben gerufen. In »Digital Empire« geht es zum Beispiel um die Frage: »Wer sind die Gewinner und Verlierer der Digitalisierung?« In der ersten Folge fällt die Antwort recht eindeutig aus: Künstliche Intelligenz neigt dazu, Menschen wegen ihrer Hautfarbe, ihres Geschlechts, körperlicher Merkmale und anderer Faktoren zu benachteiligen.

»Programmierte Ungerechtigkeit« heißt folgerichtig der Beitrag, der noch bis Ende Mai 2024 online in der Mediathek zu finden ist. Die Autorinnen Edith Löhle und Lena Nagel beschreiben darin, wie Software inzwischen eine Vielzahl von Entscheidungen trifft, die für die Betroffenen von enormer Bedeutung sind – Job-Bewerbungen, Wohnungszusagen, Kreditvergabe, sogar medizinische Diagnosen werden von KI beeinflusst oder sogar automatisiert entschieden. Und wie diese Software dabei rassistisch, vorurteilsbeladen, voreingenommen – eben ungerecht vorgeht.

Algorithmen, die heute für immer mehr entscheidende Fragen herangezogen werden, entstehen nicht aus dem Nichts. Sie werden programmiert und müssen mit Daten gefüttert werden. Häufig werden sie immer noch von weißen Männern programmiert, und oft sind die Datensätze, mit denen die Maschinen trainiert werden, in sich schon wertend. Es gibt keine Situation, wo man einen neutralen Datensatz bekommt, sagt Sandra Wachter, Juristin und Oxford-Professorin, in der ZDF-Doku. Algorithmen seien Spiegel unserer Gesellschaft, und leider sehr oft wird Technik entwickelt, die dann diejenigen, die ohnehin schon sozial schwach sind, noch stärker belastet.

Daher sind häufig Frauen, Personen aus der LGBTQ+-Community und People of Colour von erheblichen Benachteiligungen betroffen. Vor zwei Jahren, im Juni 2020, klagten vier schwarze Content-Creator gegen YouTube mit der Begründung, dass die Plattform ihre Inhalte systematisch ohne Begründung entferne. So falsch können sie mit ihrer Anschuldigung nicht gelegen haben, denn schon kurz darauf gründete YouTube, offensichtlich aufgeschreckt, einen mit 100 Millionen US-Dollar dotierten Fond zur Unterstützung schwarzer Urheber und Künstler.

Aber bis heute dauert Diskriminierung trotzdem an, wie auch eine schwarze deutsche Unternehmerin in dem ZDF-Beitrag berichtet: Sie vertreibt Naturkosmetik für lockiges und Afro-Haar und stellt immer wieder fest, dass ihre Posts nur dann vom Algorithmus akzeptiert werden, wenn zwischen den Bildern von People of Colour regelmäßig solche von weißen Personen eingebunden sind. Ich gebe alles, so wie auch ein anderer weißer Mensch, und trotzdem wird mein Content nicht verbreitet, sagt sie. Ein anderes Beispiel: Gesichtserkennungs-Software lehnte das Passbild eines asiatischen Mannes ab, weil der angeblich die Augen geschlossen hatte, wie die Daily Mail berichtet. Und zum Thema der Diskriminierung von Frauen durch KI nur folgende Anekdote: Lange Zeit wurde Özlem Türeci, Co-Chefin des Teams, das den BioNTech-Impfstoff gegen das SARS-CoV-2-Virus entwickelt, von Google lediglich als Ehefrau von Uğur Şahin bezeichnet.

Ein Lösungsansatz ist, Entwicklerteams diverser zu besetzen – zu diesem Schluss kommt auch ein Artikel im IT-Magazin Golem. Deswegen verucht Kenza Ait Si Abbou Lyadini, deutsche Ingenieurin, Elektrotechnikerin, leitende Managerin bei der Telekom und KI- und Robotik-Expertin, in Büchern, Artikeln, Vorträgen und auf ihrer Website, junge Mädchen, Absolventinnen und Berufsanfängerinnen für MINT-Berufe zu begeistern und ihnen aufzuzeigen, wie eine Karriere mit Familie gelingen kann, wie die Wikipedia schreibt.

Es gibt also durchaus positive Entwicklungen, aber weiterhin viel Handlungsbedarf, wie auch DER SPIEGEL erst am vergangenen Donnerstag wieder einmal feststellte; unter der Überschrift Dumme Technik – Was richtet die sogenannte künstliche Intelligenz an? heißt es, KI mache die Jobchancen mancher Menschen davon abhängig, welchen Browser sie verwenden. Oder die Kreditwürdigkeit davon, ob jemand seine Mutter zurückruft. Fazit: (…) sobald eine Software, die als ›intelligent‹ bezeichnet wird, über die Lebensumstände konkreter Personen entscheidet, wird es problematisch.

UV-C gegen Viren

+

Schon seit dem Beginn der SARS-CoV-2-Pandemie ist das Thema immer wieder im Gespräch; mit dem aktuellen Anstieg der »Affenpocken«-Fälle gerät es erneut in die Schlagzeilen: Ultraviolettes Licht kann Viren deaktivieren. Eignet es sich also zur Innenraum-Desinfektion?

Die Technik dahinter ist bereits einige Jahrzehnte alt. Hinlänglich bekannt und wissenschaftlich bestätigt ist, dass UV-Licht Viren zerstört – aber es kommt auf die Wellenlänge an. Gewöhnliches Sonnenlicht ist dafür nur bedingt geeignet; im Gespräch mit dem Radiosender Bayern 1 bestätigte Alois Schmalwieser von der Abteilung für Physiologie und Biophysik der Veterinärmedizinischen Universität Wien zwar, dass alle UV-Strahlen potentiell Viren zerstören können: Viren bestehen fast ausschließlich aus RNA. Die Photonen im Sonnenlicht werden vom Virus absorbiert. Die Energie der RNA steigt so weit an, dass sie aufbricht. In diesem Zustand ist das Virus nicht mehr aktiv und kann sich auch nicht mehr reproduzieren. Das gelte allerdings für UV-A so gut wie gar nicht, für UV-B schon deutlich besser – und Spitzenreiter ist die UV-C-Strahlung.

Die wiederum kann Menschen aber schnell gefährlich werden. Und hier wird’s sehr spezifisch: In einem SPIEGEL-Podcast (dessen Audio leider inzwischen nicht mehr verfügbar ist) kam der Wissenschaftsjournalist Marco Evers zu der Einschätzung, dass UV-C, wie es bislang in der Industrie verwendet wird, mit seiner Wellenlänge von etwa 254 nm (Nanometer, ein milliardstel Meter) Menschen schadet. Aber UV-C-Licht der Wellenlänge 222 Nanometer verhält sich ganz anders.

Strahlung genau dieser Wellenlänge wird unter Forschern »Far-UVC« genannt, und hierzu gibt es mittlerweile neue Studien: An der University of Dundee hat ein Team um die Leiterin der Photobiologischen Abteilung der dortigen medizinischen Fakultät damit begonnen, die Sicherheit von UV-Technologie für die Covid-19-Deaktivierung zu untersuchen. In der Ankündigung dieser Studie heißt es: Far-UVC-Licht hat die Eigenschaft, Bakterien und Viren wirksam zu deaktivieren, ohne die menschliche Haut zu schädigen, weil es in biologischen Materialien stark absorbiert wird. Far-UVC-Licht kann nicht einmal die äußeren (nicht lebenden) Schichten der menschlichen Haut oder des Auges durchdringen. Bakterien und Viren sind aber kleiner, daher kann Far-UVC sie durchdringen und inaktivieren.

Und eine bereits im angesehenen Wissenschaftsmagazin Nature veröffentlichte Studie, an der zahlreiche Forscher verschiedener Einrichtungen aus dem UK und den USA mitwirkten, formulierte ihr Thema so: Viele Infektionskrankheiten, darunter auch COVID-19, werden durch Krankheitserreger in der Luft übertragen. Es gibt Bedarf für wirksame Umgebungs-Kontrollmaßnahmen, die im Idealfall nicht vom menschlichen Verhalten abhängen. Eine mögliche Lösung sind Kryptonchlorid(KrCl)-Excimerlampen (oft als Far-UVC bezeichnet), die Krankheitserreger wie Coronaviren und Influenza in der Luft wirksam deaktivieren können. Forschungen belegen, dass, wenn aus KrCl-Lampen längerwellige ultraviolette Emissionen herausgefiltert werden, sie weder akute Reaktionen auf der Haut oder den Augen noch Spätfolgen wie Hautkrebs hervorrufen.

Erstmals wurden hier die Wirkungen dieser Technologie in größeren Räumen untersucht, also sozusagen unter realen Bedingungen statt im Labor. Das Forscherteam ist optimistisch, dass seine Daten die Konzeption und Entwicklung wirksamer Far-UVC-Systeme unterstützen können. Und auch in einem Bericht der medizinischen Abteilung der Columbia University heißt es: Eine neue Art von ultraviolettem Licht, das für Menschen ungefährlich sein könnte, brauchte weniger als fünf Minuten, um die Konzentration von Mikroben in der Raumluft um mehr als 98 % zu senken (…) Selbst wenn weiterhin Mikroben in den Raum gesprüht wurden, blieb die Konzentration sehr niedrig, solange das Licht eingeschaltet war. Nicht ausgeschlossen also, dass in nicht allzu ferner Zukunft mit Far-UVC-Deckenlampen in Innenräumen Viren dauerhaft unschädlich gemacht werden können.

Deutschland als Überwachungs-Bremse

+

Bundesinnenministerin Nancy Faeser ist offenbar gerade dabei, die deutsche Position zur Sammlung von Nutzerdaten gegenüber der EU-Kommission ein wenig in Richtung mehr Datenschutz zu verschieben. Zwar will sie Fälle von Kindesmissbrauch im Netz durch die Speicherung von IP-Adressen besser aufklärbar machen. Aber: Es geht weniger um die Vorratsdatenspeicherung als Ganzes, sagte Faeser heute im Deutschlandfunk. Es geht darum, wie können wir die IP-Adressen möglichst sichern, sodass wir in diesen Fällen Zugriff haben und die Täter auch ermitteln können.

»Quick Freeze« nennt sich das Vorgehen, das die Ampelkoalition momentan favorisiert: Nur bei einem Anfangsverdacht werden dann die Provider verpflichtet, die IP-Adressen bestimmter Personen für einen klar definierten Zeitraum zu speichern. Diesen Ansatz hatte der Europäische Gerichtshof (EuGH) in einem anderen Verfahren schon als rechtens bestätigt, berichtet DER SPIEGEL.

Auch im Falle der aktuell scharf diskutierten sogenannten »Chatkontrolle« ist die Innenministerin vorsichtig: Gegenüber der BILD am Sonntag sagte sie vor anderthalb Wochen, (…) wir dürfen nicht in verschlüsselte private Kommunikation eingreifen und damit viele Menschen treffen, die mit diesen Taten überhaupt nichts zu tun haben. Es ist eine große Errungenschaft, dass es Kommunikation gibt, in die der Staat nicht gucken darf. Jede private Nachricht anlasslos zu kontrollieren, halte ich nicht für vereinbar mit unseren Freiheitsrechten. Stattdessen sollten Foren und Darknet-Plattformen besser überwacht und dort auffällige Vorgänge sofort verfolgt werden.

Vor drei Wochen hatte der Piratenpartei-Europaabgeordnete Dr. Patrick Breyer gegen die Chatkontrolle Unterlassungsklage vor dem Kieler Amtsgericht gegen Meta, Facebooks Mutterkonzern, eingereicht. Zur Begründung schrieb er: Dieser Big Brother-Angriff auf unsere Handys, Privatnachrichten und Fotos mithilfe fehleranfälliger Algorithmen ist ein Riesenschritt in Richtung eines Überwachungsstaates nach chinesischem Vorbild. Chatkontrolle ist, wie wenn die Post alle Briefe öffnen und scannen würde – ineffektiv und illegal.

Gut möglich, dass Breyer nun Rückendeckung von der Ministerin bekommt.

Zoom findet, du fühlst falsch

+

Die Software Zoom soll in Zukunft zur Emotionserkennung verwendet werden – mithilfe einer KI, die in Echtzeit die Gesichter der an einem Videocall beteiligten Personen analysieren soll. Das ruft allerdings zahlreiche Warner und Mahner auf den Plan, und vermutlich sehr zu Recht.

Während der Corona-Lockdowns hat die Software Zoom einen echten Boom erlebt; mittlerweile haben wahrscheinlich die allermeisten schon mal eine Zoom-Konferenz erlebt. In der Vergangenheit hat sich gezeigt, dass aus solchen Marktsituationen viel zu oft eine Art »Unausweichlichkeit« entsteht – wer im Netz sucht, sucht mit Google, Facebook/Instagram sind Synonyme für Social Media, und, wer weiß: So wie Menschen früher »skypten«, werden sie möglicherweise in Zukunft »zoomen«. Umso wichtiger also, zu wissen, was »unter der Haube« passiert. Alphabet (Google/YouTube) und Meta (Facebook/Instagram/WhatsApp) sind schon lange Ziele von Kritik, und der jüngste Plan der Zoom-Entwickler wird nun auch äußerst kritisch gesehen.

Was bei Verkaufsgesprächen schon genutzt wird, soll bald auch in Zoom implementiert werden, wie das Tech-Magazin protocol berichtet: In jedem Videotelefonat könnte dann das Programm die Mimik und Körpersprache der Teilnehmer*innen analysieren und so ihre Stimmung ermitteln. Dabei gibt es allerdings zahlreiche Probleme, wie kürzlich auch DER SPIEGEL berichtete. Die Verletzung der Privatsphäre ist eines davon, der Missbrauch dieser sensiblen Daten ein weiteres. In einem Offenen Brief an den Zoom-CEO Eric S. Yuan nennen die Verfasser neben diesen weitere Gründe für ihre Forderung, das Projekt einzustellen.

Der Einsatz von Emotionserkennung könne auch zur Manipulation von Personen verwendet werden, heißt es da, und: KI sei sehr häufig fehlerhaft und rassistisch. Solche Tools gehen davon aus, dass alle Menschen dieselben Gesichtsausdrücke, Stimmenmuster und Körpersprache verwenden – aber das ist nicht wahr. Schon im Dezember 2019 veröffentlichte das National Institute of Standards and Technology (NIST) aus dem amerikanischen Bundesstaat Maryland eine Studie, die belegt, dass Gesichtserkennung (also ein grundsätzlich noch einfacherer Einsatzbereich von KI) bei People of Colour bis zu hundertmal häufiger irrt als bei Weißen, weil sie mit Fotos von Weißen trainiert wurden, wie die taz schreibt. Dort heißt es weiter: Robert Julian-Borchak Williams wurde im Januar 2020 von der Detroiter Polizei für 30 Stunden in Gewahrsam genommen, obwohl er nichts getan hatte. Die KI hatte versagt, sein Gesicht verwechselt und die Polizei richtete sich – zu lange – nach ihrem Urteil.

Problematisch kann außerdem sein, dass Arbeitgeber, Universitäten und andere »übergeordnete« Personen oder Institutionen in Versuchung geraten könnten, Untergebene disziplinarisch zu bestrafen, wenn sie unerwünschte Gefühle zeigen. Tatsächlich hat aber das Magazin The Atlantic vor einem Jahr zusammengefasst, dass KI zur Gefühlserkennung schlicht ungeeignet ist: Es gibt keine Hinweise darauf, dass Gesichtsausdrücke die Gefühle einer Person offenbaren. Aber Tech-Firmen wollen Sie etwas anderes glauben machen.

Zum Abschluss eine gute Nachricht: Es gibt Alternativen, beispielsweise Jitsi, das im Browser läuft, oder Signal, das installiert werden muss. Und wo wir gerade bei Alternativen sind: Als datensicheren, anonymisierbaren WhatsApp-Ersatz gibt’s den dezentralen Messenger Session, der auf der Opensource-Software von Signal basiert, aber im Unterschied zu diesem keine Telefonnummer benötigt (bislang aber leider noch kein Video beherrscht).

Wikipedia sagt sich von Kryptowährungen los

+

Molly White ist seit 2006 Mitarbeiterin der Online-Enzyklopädie, hat seitdem Artikel geschrieben und zahlreiche unterschiedliche Funktionen innegehabt. Schon am 30. Januar dieses Jahres kritisierte sie, dass die Wikimedia Foundation Spenden in Bitcoin, Ethereum und anderen Digitalwährungen angenommen hat. Jetzt hat sich ihre Überzeugung durchgesetzt.

Wie der SPIEGEL berichtet, hat die Stiftung sich einer Petition von Autor*innen gebeugt und akzeptiert keine »Cryptocurrencies« mehr. Zwar ist der Anteil der Spenden in diesen Währungen sehr gering, trotzdem setzt eine große Plattform wie die Wikipedia mit ihren Schwesterprojekten Wiktionary, Wikibooks, Wikiquote, den Wikimedia Commons und vielen anderen dadurch ein deutliches Zeichen.

White hatte im Januar unter anderem geschrieben: Als die Wikimedia Foundation 2014 damit begann, Kryptowährungen als Spenden zu akzeptieren, (…) tendierten Kryptowährungs-Projekte dazu, ähnliche Ideale [wie die Wikimedia Foundation] zu vertreten: Privatsphäre, Anonymität, Dezentralisierung, Freiheit. Das habe sich im Laufe der Jahre massiv geändert; die Blockchain-Technologie (auf der Bitcoin und seine Mitbewerber ebenso basieren wie zum Beispiel NFTs) sei ein Ort, der zum überwältigenden Teil eine Gelegenheit zur Selbstbereicherung auf Kosten anderer und der Umwelt geworden sei. Der Bereich sei von Betrügern vereinnahmt. Zu den Kryptowährungen hat sich eine Blase von räuberischen, von Natur aus schädlichen Technologien gesellt, die den Einzelnen ausnutzen und zur Zerstörung unserer Umwelt beitragen. (Über die dramatischen Folgen des sogenannten Crypto-Minings für die Umwelt hatten wir schon mehrfach berichtet.)

Und was die Reichweite dieser Maßnahme angeht: Die Mozilla Foundation, die zum Beispiel den Firefox-Browser und den Thunderbird-Mailclient entwickelt, hat schon im April die Möglichkeit, Bitcoins zu spenden, beendet. Nicht unwahrscheinlich, dass weitere Initiativen und Verbände folgen werden.

Das war’s dann wohl, Lightning

+

Manchmal fühlt man sich immer noch an frühere Jahrzehnte erinnert, an den Formatkrieg der verschiedenen Video-Standards (den VHS gewann) oder den »first browser war« (den der Intenet Explorer gewann). Auch Anschluss-Standards waren immer wieder Thema von Auseinandersetzungen zwischen Herstellern. Einer sticht da bis heute besonders hervor: Apple will nach wie vor nicht von seinem Lightning-Anschluss für iPhones und iPads weichen. Will nicht – muss aber, wie es jetzt aussieht.

Schon im Juni 2009, also vor fast dreizehn Jahren, unterschrieben zahlreiche Hersteller eine gemeinsame Absichtserklärung, einen Standard für Netzgeräte und Ladekabel zu setzen – unter ihnen auch Apple. Und tatsächlich ließen sich ab 2011 die allermeisten neuen Handys per Micro-USB aufladen. Aber eben nur die allermeisten: Trotz gemeinsamer Erklärung scherte Steve Jobs’ Hochglanzfirma weiterhin aus. In den Mobiltelefonen aus Cupertino gab und gibt es nach wie vor nur die prorietären Lightning-Buchsen.

Zwar kann man seit einiger Zeit Adapter erwerben, die Micro-USB (bzw. das mittlerweile zum De-Facto-Standard gereifte USB-C) und Lightning zusammenführen, aber das bedeutet erstens eine Extra-Ausgabe und zweitens mehr Elektroschrott. Deswegen hat sich der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) in der EU des Themas angenommen und will einen einheitlichen Standard nun qua Gesetz erzwingen. Vergangene Woche gab es eine erste Positionserklärung, die das EU-Plenum im Mai bestätigen dürfte. Anschließend werden die EU-Staaten mit dem Europaparlament verhandeln, und im Sommer wird eine Einigung erwartet. Ein einheitliches Ladekabel könnte dann ab Mitte 2024 Wirklichkeit werden – fünfzehn Jahre nach der ersten Absichtserklärung.

Ach, und was den »second browser war« betrifft: Mittlerweile ist Google Chrome der unangefochtene Marktführer, sowohl auf dem Desktop, als auch auf Mobilgeräten. Da haben die Google-Entwickler von Microsoft gelernt: Chrome ist auf allen Android-Phones der Standardbrowser, gerade so, wie seinerzeit Gates und Co. auch den Internet Explorer fest ins Windows-Betriebssystem integrierten. Ein Schelm, wer Böses dabei denkt …

Der DMA ist da (naja, fast.)

+

Apple muss fremde App-Stores und Zahlungssyteme zulassen – und es erlauben, vorinstallierte Apps zu löschen. Google muss es Android-Nutzer*innen leichter machen, andere Suchmaschinen, Navigationsdienste und Browser zu benutzen – und darf in den Suchergebnissen eigene Services nicht mehr besonders hervorheben. Was bei Open-Source-Nutzer*innen erstmal nur ein schulterzuckendes »Na und?« auslöst, ist tatsächlich ein erster Meilenstein auf dem Weg zu mehr Nutzer*innenkontrolle und soll »spätestens im nächsten Jahr« Wirklichkeit werden.

Der französische Staatssekretär für Digitales, Cédric O, feiert den Digital Markets Act (DMA) schon jetzt als »die wichtigste Wirtschaftsregulierung der letzten Jahrzehnte«. Ende März wurde er beschlossen, wie die Berliner taz berichtet. Zwar muss er noch vom Europaparlament und den EU-Mitgliedstaaten abgenickt werden; allerdings ist das wohl eher Formsache, und die Beteiligten gehen davon aus, dass die neuen Vorschriften Anfang 2023 wirksam werden. Dann sind empfindliche Strafen für die Konzerne geplant: Bis zu zehn Prozent des Jahresumsatzes können als Bußgeld verhängt werden, im Wiederholungsfall sogar 20 %. Im Visier stehen insbesondere die »Big Player« wie Alpha (Google, YouTube), Meta (Facebook, Instagram, WhatsApp), Amazon, Apple und Microsoft.

Plattform-Dienste wie Amazon dürfen dann auch nicht mehr ihre Kundendaten für andere eigene Angebote »weiterverwenden« und müssen eine gesonderte Zustimmung ihrer Nutzer*innen einholen, wenn sie Daten über verschiedene Dienste übergreifend zu Werbeprofilen verknüpfen wollen. Und noch ein weiterer Punkt des DMA ist zentral: Messengerdienste sollen untereinander Nachrichten austauschen können. Heißt: Wer eine Message mit WhatsApp verfasst, kann diese auch direkt an iMessage-Nutzer*innen und solche anderer, kleinerer Dienste senden.

Da allerdings hat Netzpolitik.org Bedenken: Dadurch könnten erhebliche Sicherheitsprobleme entstehen. Der Artikel zitiert das Magazin The Verge, das befürchtet, die geforderte Interoperabilität könne die Ende-zu-Ende-Verschlüsselung schwächen oder gar komplett aushebeln.

Es wäre ein Fehler zu glauben, dass Apple, Google, Facebook und andere Tech-Firmen identische und austauschbare Produkte herstellten, die auf einfache Weise kombiniert werden könnten, sagt der Internet-Sicherheitsexperte und frühere Facebook-Entwickler Alec Muffett im Interview mit The Verge. Netzpolitik.org schreibt allerdings auch: Der EU-Vorschlag sieht dabei ausdrücklich vor, dass der gleiche Privatsphäre-Standard – inklusive Ende-zu-Ende-Verschlüsselung – erhalten bleiben muss.

Bleibt also abzuwarten, wie die technische Seite des DMA letztlich umgesetzt wird. Ein Verlust von Verschlüsselung und Privatsphäre darf zumindest nicht das Ergebnis sein.

Auf Nimmerwiedersehen, FinFisher!

+

Der Insolvenzverwalter bestätigt: Alle drei in die Herstellung und den Vertrieb des sogenannten »Staatstrojaners« involvierten Firmen, die FinFisher GmbH, FinFisher Labs GmbH und raedarius m8 GmbH, werden abgewickelt und werden oder sind schon aufgelöst. Das berichtet jetzt Netzpolitik.org.

Schon 2013 hatte die NGO Reporter ohne Grenzen (Reporters sans frontières, RSF) die Software FinFisher auf ihre Liste der »Feinde des Internets« gesetzt; darauf steht sie bis heute. Seit aber im Jahr 2017 eine FinFisher-Version in der Türkei entdeckt wurde – was ohne staatliche Ausfuhrgenehmigung einen Straftatbestand bedeutet hätte –, hatte eine Koalition aus der Gesellschaft für Freiheitsrechte, Reporter ohne Grenzen, dem Europäischen Zentrum für Verfassungs- und Menschenrechte und auch Netzpolitik.org recherchiert und schließlich im Sommer 2019 Strafanzeige erstattet.

Daraufhin nahm die Staatsanwaltschaft zusammen mit dem Zollkriminalamt Ermittlungen auf; 2020 wurden Geschäfts- und Privaträume der Firmen durchsucht. Im Zusammenhang mit dem Verdacht auf mögliche illegale Exporte des Staatstrojaners sollten Ende 2021 schließlich FinFisher-Firmenkonten gepfändet werden. Dem ist das Unternehmen nun offenbar zuvorgekommen. Die Insolvenzanträge machen den »Vermögensarrest«, wie die Pfändung juristisch heißt, unwirksam. Der Geschäftsbetrieb ist beendet, das Büro geschlossen, alle 22 Mitarbeiter wurden entlassen.

Die Ermittlungen der Staatsanwaltschaft laufen trotz der Insolvenz weiter; die Legal Director des Europäischen Zentrums für Verfassungs- und Menschenrechte, Miriam Saage-Maaß, hofft, dass sie hoffentlich zeitnah zur Anklage und Verurteilung der verantwortlichen Geschäftsführer führen mögen, fügt allerdings hinzu: Aber auch darüber hinaus müssen die EU und ihre Mitgliedstaaten viel entschiedener gegen den massiven Missbrauch von Überwachungstechnologie vorgehen. Und Thorsten Schröder, Sicherheitsforscher des Chaos Computer Clubs und Autor einer Analyse der FinFisher-Software, ist nur verhalten optimistisch: Das Ende von FinFisher ist nicht das Ende des Marktes für Staatstrojaner. Die nun entlassenen Angestellten werden sich neue Jobs suchen – vermutlich bei der Konkurrenz, die wohl auch die Kunden übernehmen wird.

Was macht Software mit der Umwelt?

+

Wie die Berliner taz berichtet, wurde jetzt erstmals ein Computerprogramm mit dem »Blauen Engel« des Umweltbundesamtes (UBA) ausgezeichnet. Wer’s nicht weiß: Das ist ein in Deutschland seit 1978 vergebenes Umweltzeichen für besonders umweltschonende Produkte und Dienstleistungen (Wikipedia). Und wer sich jetzt fragt: »›Blauer Engel‹ für Software?! Wieso das denn?«, mag hier weiterlesen.

Zunächst mal ist es ja ganz logisch: Ein Computer ohne Software verbraucht keine Energie. Denn er läuft gar nicht erst. Er braucht ein Betriebssystem, das alle Grundfunktionen bereithält, und Anwendungssoftware, die darauf aufbauend Aufgaben ausführt. Ob die Nutzer*innen eine E-Mail oder einen Brief schreiben, ein Katzenvideo oder die aktuelle Übertragung der Bundespressekonferenz ansehen, eine Lohnsteuererklärung ausfüllen, einen Film sehen oder Musik hören wollen – immer ist ein Programm nötig, das die entsprechenden Funktionen ermöglicht. Und, wie es das UBA ausdrückt: Software (…) ist maßgeblich dafür verantwortlich, wie energie- und hardwareintensiv eine Funktion ausgeführt wird. Und sie ist zu einem großen Teil dafür verantwortlich, wenn Geräte nur begrenzte Zeit genutzt werden können.

Schlecht programmierte Programme können bis zu viermal so viel Energie verbrauchen wie effiziente Alternativen, hat das UBA in einer Studie ermittelt. Und wenn auch für IT-Hardware längst gesetzliche Anforderungen zur Mindesteffizienz definiert sind, fehlt ein solcher Rahmen für Software bis heute. Dabei kann die Effizienz bei der Prozessorauslastung, beim Arbeits- und Dauerspeicher wie auch bei der Datenübertragung entscheidend die Lebensdauer beeinflussen. So ist mit nachlässig entwickelter Software nicht nur der aktuelle Stromverbrauch höher, sondern Geräte müssen auch früher auf den Müll – und verursachen so weitere Umweltprobleme, denn längst nicht alle Hardware-Bestandteile können schonend recycelt werden.

Daher ist eine der Voraussetzungen für die Vergabe des »Blauen Engels«, dass das Programm auch auf Rechnern läuft, die schon fünf Jahre oder älter sind. Außerdem gehören zu den Kriterien natürlich Energieeffizienz und Ressourcenschonung, aber auch kostenlose Sicherheitsupdates und die Autonomie der Benutzer*innen. Heißt: Sie müssen wissen, womit genau sie es zu tun haben, und jederzeit wechseln können. Das klingt sehr nach Open Source, und tatsächlich haben Entwicklungen aus der OSS-Gemeinde größere Chancen auf einen »Blauen Engel«, denn diese hat schon seit dreißig Jahren immer auch einen ganzheitlichen Blick auf die Nachhaltigkeit ihrer Programme. Beispielsweise gibt es spezielle Linux-Distributionen, die explizit für den Einsatz auf alten Laptops und Computern entwickelt werden.

Ach, und das gestern mit dem »Blauen Engel« ausgezeichnete Programm ist der Datei-Viewer Okular, mit dem sich zum Beispiel PDFs, Bilder und E-Books öffnen lassen. Entwickelt wird er von der OSS-Community KDE, die mit KDE Plasma auch eine kostenlose Open-Source-Systemoberfläche bereithält und mit KDE neon sogar ein vollständiges, ebenfalls kostenloses und aktiv entwickeltes Betriebssystem.

Bitcoins bringen Kohlekraftwerke zurück

+

Über den Energiehunger des sogenannten »Minings« zur Erzeugung von Bitcoins und anderen Digitalwährungen hatten wir bereits geschrieben. Jetzt zeigt der Fall eines amerikanischen Kohlekraftwerks, dass dadurch sogar die Bemühungen um nachhaltige Energiequellen konterkariert werden.

In Montana steht das Kraftwerk »Hardin«; eigentlich sollte es stillgelegt werden. Jetzt berichtet The Guardian, dass es wieder in Betrieb genommen wurde – von Marathon, einer Firma, die Bitcoin-Mining betreibt. Anne Hedges, die Co-Chefin der Umweltorganisation Montana Environmental Information Center, erinnert sich: Wir warteten nur darauf, dass es sterben würde. Sie hatten [finanzielle, d. Red.] Probleme und sahen der Schließung entgegen. Es stand auf der Kippe. Und dann kam diese Kryptowährungsfirma.

In den ersten neun Monaten 2021 lief das Kohlekraftwerk an 236 Tagen – und stieß dabei allein im zweiten Quartal 187 000 Tonnen CO₂ aus, 5000 % mehr als im selben Zeitraum des Vorjahres. Im dritten Quartal waren es 206 000 Tonnen, immer noch 905 % mehr als im gleichen Zeitraum 2020. »Hardin« lief Ende des Jahres fast unter Vollast, wie Marathon im Dezember stolz verkündete.

Um sich ein Bild der Aktivitäten zu machen, besuchte Anne Hedges das Kraftwerk und auch das Datencenter und stellte fest: Das dient nicht dazu, alte Damen vor dem Erfrieren zu schützen, sondern einige wenige reicher zu machen und dabei für uns alle das Klima zu zerstören. Wenn ihnen der Klimawandel Sorgen bereitet, sollten Sie nichts mit Kryptowährungen zu tun haben, sie sind ein Desaster für das Klima.

Und »Hardin« ist nicht das einzige Kohlekraftwerk, das eine Wiederauferstehung erlebt; es zieht sich fast schon eine Welle der Wiederbelebungen durch die USA. Im Staat New York wurde ein Kohlekraftwerk auf Gasbetrieb umgerüstet und liefert jetzt Krypto-Strom, in Pennsylvania versorgt »Scrubgrass« tausende von Mining-Computern mit Kohlestrom, und in Kentucky wurde eine neue Bitcoin-Anlage direkt neben die Big Rivers Electric Corporation gebaut, die ihrerseits gleich vier kohlebefeuerte Kraftwerke betreibt.

Offenbar kein Hirntumor vom Handy

+

Seit es Mobiltelefone gibt, steht auch die Unsicherheit im Raum, ob die Strahlung nicht womöglich Hirntumoren fördern oder sogar verursachen könnte. Eine neue Studie gibt in dieser Hinsicht relativ eindeutig Entwarnung.
 
In jüngerer Zeit hat diese Sorge noch einen weiteren Twist bekommen – weil nämlich die Nutzung von kabellosen Geräten unter Jugendlichen massiv zugenommen hat und daher möglicherweise diese Personengruppe einem deutlich erhöhten Risiko ausgesetzt sein könnte. Aus diesem Grund hat sich die aktuelle Studie »MOBI-Kids« auf Menschen zwischen 10 und 24 Jahren konzentriert. Genauer gesagt: Etwa 16,5 Jahre Durchschnittsalter, 57 % männlich; knapp 900 mit einem Tumor Erkrankte, gut 1900 Personen in der Kontrollgruppe. Unter den 20- bis 24-Jährigen waren etwas mehr als die Hälfte schon Langzeitnutzer*innen (zehn Jahre oder länger). Die Beteiligten stammten aus vierzehn Ländern: Australien, Deutschland, Frankreich, Griechenland, Indien, Israel, Italien, Japan, Kanada, Korea, Niederlande, Neuseeland, Österreich und Spanien. Die Dauer und die Nutzungshäufigkeit von Mobil- und DECT-Telefonen wurden in Interviews ermittelt.

Hier nun endlich die beiden wichtigsten Sätze – erstmal im Original:

We have no evidence of a causal association between wireless phone use and brain tumours.
Because of likely biases we cannot rule out a small increased risk.

Und jetzt auf Deutsch:

Wir haben keine Hinweise auf Kausalzusammenhänge zwischen der Nutzung kabelloser Telefone und Hirntumoren gefunden.
Aufgrund wahrscheinlicher Voreingenommenheiten können wir ein geringfügig erhöhtes Risiko nicht ausschließen.

Letzteres ist ein in der Wissenschaft durchaus üblicher Hinweis auf ein potentielles Restrisiko, das aber allem Anschein nach verschwindend gering ist. Daher urteilt auch das Bundesministerium für Strahlensicherheit (BfS), es gebe nach derzeitigem Kenntnisstand […] keine wissenschaftlich gesicherten Belege für gesundheitsschädigende Wirkungen durch Mobilfunk für den Menschen, was die neue Studie zusätzlich bestätige. BfS-Präsidentin Inge Paulini äußerste sich vorgestern: Die neuen Ergebnisse tragen dazu bei, wissenschaftliche Restunsicherheiten auch mit Blick auf Kinder und Jugendliche zu verringern – sie bestätigen, dass die im Mobilfunk geltenden Grenzwerte Erwachsene und Kinder schützen.

Ein Link in die Welt für Gelähmte

+

Wir leben in Zeiten, in denen allmählich die Science-Fiction in den Alltag einzieht. Autos fahren selbst, Künstliche Intelligenz spielt besser Schach und Go als menschliche Großmeister – und jetzt rückt eine weitere Vision von (Drehbuch-)Autoren in greifbare Nähe.
 
Neuralink, eine der Firmen von Tesla-Gründer Elon Musk, will schon bald Tests mit Menschen durchführen. Dazu muss man wissen, dass Neuralink Brain-Machine-Interfaces entwickelt, also Schnittstellen zwischen dem menschlichen Gehirn und Computersystemen.

Wie der SPIEGEL kürzlich berichtete, soll ein Chip im Kopf Nervenschäden überbrücken und Gedanken zu Smartphones und Computern übertragen. Mit anderen Worten: Menschen können mit Gedanken Programme steuern. In einem Versuch gelang es, einen Makaken dazu zu bringen, ohne Joystick Pong zu spielen.

Momentan sucht das Unternehmen einen Projektleiter für die Testreihe. Auf ihrer Website benennt die Firma weitere Ziele und Zwecke für ihr Interface, das den schlichten Namen »The Link« trägt: Das erste Ziel unserer Technologie wird sein, Gelähmten dabei zu helfen, durch die Kontrolle von Computern und Smartphones wieder Unabhängigkeit zu erlangen. Unsere Geräte sind dafür entwickelt, Menschen die Fähigkeit zu geben, per Text oder Sprachsynthese einfacher zu kommunizieren, im Netz ihre Neugier zu befriedigen oder sich mit Photographie, Kunst und Schreibanwendungen kreativ auszudrücken.

Aber die Ideen sind weitreichender; hier kommt einmal mehr der Silicon-Valley-Weltverbesserungsanspruch zum Tragen: Diese Technologie hat das Potential, die Art, wie wir miteinander, mit der Welt und mit uns selbst interagieren, zu erweitern.

Europas erster Quantencomputer mit über 5000 Qubits

+

Zugegeben: Das Thema ist, zumindest ohne quantenphysikalisches Grundwissen, alles andere als leicht zu verstehen. Ganz einfach heruntergebrochen, lässt sich vielleicht sagen: Die Leistungsfähigkeit heutiger Supercomputer gelangt an ihr Ende. Durch die Aufteilung in zwei mögliche Zustände (»Ja« oder »Nein«, »ein« oder »aus«, 1 oder 0) brauchen sie für zunehmend komplexe Probleme zunehmend viel Rechenleistung, und da die Miniaturisierung an physikalische Grenzen stößt, ist ein Ende absehbar. Deswegen konzentriert sich die Forschung in letzter Zeit auf sogenannte »Quantencomputer«, die mehrere Zustände gleichzeitig einnehmen und verarbeiten können. Aus dem Forschungszentrum Jülich gibt es dazu spannende Neuigkeiten.

Hier wurde kürzlich der erste Quantencomputer Europas mit mehr als 5000 Qubits in Betrieb genommen. Die Wikipedia definiert ein Qubit als das einfachste nichttriviale Quantensystem überhaupt. Und jedes nichttriviale quantenmechanische System [kann] prinzipiell unendlich viele verschiedene Zustände annehmen. In seiner Pressemitteilung schreibt das Forschungszentrum Jülich: Das neue System ist ein sogenannter Quantenannealer: Diese Art von Quantensystemen sind besonders geeignet für die Lösung von schwierigen Optimierungsproblemen, die insbesondere auch für die Industrie von großem Interesse sind – etwa um Verkehrsflüsse effizient zu steuern oder um künstliche neuronale Netze für Anwendungen der Künstlichen Intelligenz zu trainieren.

Die Hardware lieferte der kanadische Anbieter von Quantencomputer-Systemen D-Wave Systems; für die empfindliche Technik des Quantenannealers musste extra ein vibrationfreies Gebäude errichtet werden. Dort soll im nächsten Jahr ein weiterer Quantenrechner hinzukommen. Das Jülich Supercomputing Centre (JSC) will den Annealer in seine Jülicher Nutzer-Infrastruktur für Quantencomputing (JUNIQ) einbinden, die Forschenden in Deutschland und Europa seit Herbst 2019 Zugriff auf verschiedene Quantensysteme ermöglicht, wie es in der Pressemitteilung heißt. Gefördert wird JUNIQ zu gleichen Teilen vom Land NRW und dem Bund.

Kranke Krankenakten

+

Momentan sorgt die Debatte um eine allgemeine SARS-CoV-2-Impfpflicht für Unruhe im noch recht jungen Parlament. Vieles will bedacht sein, unter anderem: der Datenschutz. Dabei ist mit dem Jahresbeginn ein anderes digital-virales Problem im Zusammenhang mit der menschlichen Gesundheit nicht weniger besorgniserregend: Die elektronische Patientenakte (ePA) hat, wie das Magazin c’t kürzlich herausfand, einen erheblichen Mangel. Sie ist nicht ausreichend vor Malware-Befall gesichert.

In ihren Spezifikationen hat die gematik GmbH – also jene Firma, die im Auftrag des Bundes die elektronische Gesundheitsakte inklusive dazugehöriger Infrastruktur entwickelt – zwar einiges festgelegt. Zum Beispiel, dass das Hochladen von ZIP-Dateien nicht erlaubt ist. Die sind unter anderem deswegen problematisch, weil sie sogenannte »Dekompressionsbomben« enthalten können, die beim Entpacken die jeweilige Festplatte bis aufs letzte Bit füllen und so Rechner lahmlegen können.

Eine der meistbenutzten Anwendungen für Patienten ist die »TK-App« für Android und iOS. Und die konnte in der Android-Version 3.15.0 mit einem kleinen Kniff dazu gebracht werden, sehr wohl ZIP-Files zu akzeptieren. Die App beurteilt nämlich die ihr angebotenen Dateien nach dem MIME-Typ in den Metadaten, und die c’t-Redaktion konnte mit einem Umweg über Google Drive und eine temporäre Änderung der Datei-Endung von .zip auf .txt eine ZIP-Datei über die App in die ePA hochladen.

Vor Veröffentlichung des Artikels wurden gematik und TK verständigt, die daraufhin in der Version 4.1 die Lücke schlossen. Es bleibt ein ungutes Gefühl, denn letztlich darf erstens ein solcher Fehler in einer so kritischen Infrastruktur erst gar nicht auftreten, und zweitens argumentierte die gematik, dass die Praxen und Krankenhäuser ohnehin dazu aufgefordert sind, die Dateien zu prüfen. Das dürfte sich im hektischen Mediziner-Alltag allerdings als mindestens schwierig erweisen. Und auch das vorgebrachte Argument, dass nur der Versicherte selbst dies aushebeln und die Ärztin/den Arzt seines Vertrauens bewusst mit einer Datei schädigen kann, trägt natürlich nicht, denn ohne weiteres kann ein Patienten-Betriebssystem von einem Trojaner befallen sein, der schädliche Dinge ohne Kenntnis der Anwender*innen tut. Das gehört sogar geradezu zur Kernkompetenz von Trojanern.

Hinzu kommt, dass im Falle einer solchen Schadsoftware-Attacke bislang auch die Haftungsfrage völlig ungeklärt ist. Der Rechtsanwalt Dirk Wachendorf empfahl Ärzten den Abschluss einer »Cyberrisk-Versicherung«, und der c’t-Artikel legt nahe, dass auch für Patienten eine solche Versicherung durchaus Sinn ergeben könnte. Und was, wenn sich über dieses – oder ein vergleichbares zukünftiges – Einfallstor tatsächlich Ransomware einschmuggeln sollte, wie sie gerade in einem mexikanischen Gefängnis einen Lockdown erzwingt oder im Sommer an der US-Ostküste das Benzin knapp werden ließ?

Schließlich kommen noch grundsätzliche Unsicherheiten von Digitalsystemen hinzu; am 13. Dezember war die gesamte »Telematische Infrastruktur« der medizinischen Digitalvernetzung vom Log4j-Problem lahmgelegt, drei Tage später war ein Drittel aller ePAs nicht erreichbar, weil IBM (die Firma stellt neben Bitmarck/Rise und ITSG eines der drei Server-Backends) ihr System aktualisierte. (Wir schrieben schon vor einem guten halben Jahr zu dem Thema.)

Bleiben also zwei Fragen: Wie digital wollen wir in einem so sensiblen Bereich werden, und wie sicher können wir diese Systeme machen?

Y2K22-Bug legt Exchange lahm

+

Vor dem Millenniumswechsel 1999/2000 befürchteten viele IT-Experten, weltweit könnten Computersysteme versagen, weil sie mit der Jahreszahl 2000 nicht klarkämen. Fieberhaft wurde an der Problemlösung gearbeitet. Mit Erfolg – der Schaden hielt sich in Grenzen.

Der jüngste Jahreswechsel 2021/2022 hat nun offenbar ein ähnliches Problem verursacht. Zahlreiche Exchange-Server streiken und liefern keine Mails mehr aus, weil die Antimalware-Scan-Engine mit dem Zahlenwert »2201010001« nicht umgehen kann. Beim Konvertieren des Strings (also der Zahlenfolge) in einen sogenannten »Signed-Integer-Wert« kommt es offensichtlich zu einem Überlauf. Anders gesagt, bei der Umwandlung entsteht ein ungültiger, nicht zugelassener Wert. Als Folge weigert sich Exchange, die Daten weiterzuverarbeiten.

Zunächst riet Microsoft lediglich dazu, den Antimalware-Scan abzuschalten. Doch inzwischen gibt es einen weiteren Fix, den das Unternehmen auf seiner TechCommunity-Site veröffentlicht hat.

Achtung: Manche Admins berichten, dass ein anschließender Server-Neustart erforderlich sei.

https://heise.de/-6315742

← Tech-News — Aktuell