KI Künstliche Intelligenz KI - Meldungen 06 - ab
1.1.2026
Wortschöpfung: Die Atom-KI (M.P. - 28.10.2025)
KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in
Memphis ("USA") am 23.1.2026: Gigantischer
Strom- und Wasserverbrauch: «Umwelt-Rassismus»: Musks Supercomputer
frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087
Michael Andai -- Das Rechenzentrum Colossus 2 soll KI
mit brachialer Rechenleistung vorantreiben und verschlingt
zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das
für Ärger: Bewohner berichten von Lärm und Abgasen.
Elon Musks KI-Firma xAI errichtet in Memphis das
Rechenzentrum «Colossus 2».
Die Anlage benötigt extrem viel Strom und
verbraucht bis zu 20 Millionen Liter Wasser
täglich.
Mobile Gasturbinen zur Stromerzeugung belästigen
die Anwohner mit Lärm und Abgasen.
Umweltorganisationen werfen xAI
«Umwelt-Rassismus» vor.
KI bei der WHO am 2.1.2026: Das Impfmonster
Lauterbach will Impfkritiker mit KI überwachen lassen: WHO weist Regierungen an, Online-Impfkritik in Echtzeit mit
KI zu überwachen
https://uncutnews.ch/who-weist-regierungen-an-online-impfkritik-in-echtzeit-mit-ki-zu-ueberwachen/
https://t.me/uncut_news/86396
Fachzeitschrift „Vaccines“
Glaube an Impfstoffe – oder werde ins Visier genommen.
Jon Fleetwood
Die Weltgesundheitsorganisation (WHO) hat Regierungen
angewiesen, Online-Informationen zu überwachen, die die
Legitimität von Grippeimpfstoffen infrage stellen, und
„Gegenmaßnahmen“ gegen jene zu ergreifen, die das
Impfstoff-Dogma der WHO hinterfragen. Dies geht aus einer im
November veröffentlichten Publikation in…
KI im Film verwendet am 4.1.2026: Film
"Expedition 33" verliert 2 Preise: «Clair Obscur: Expedition 33»: Director äussert sich zum
KI-Skandal
https://www.nau.ch/news/games/clair-obscur-expedition-33-director-aussert-sich-zum-ki-skandal-67080048 Fabia Söllner -- USA -- «Clair Obscur: Expedition 33»
steht nach einem KI-Skandal unter Druck. Director Guillaume
Broche bezieht Stellung und verliert eine Millionensumme.
Der KI-Eklat um «Clair Obscur: Expedition 33» hat dem
gefeierten Indie-Rollenspiel zwei wichtige
Auszeichnungen gekostet.
Laut «WinFuture» wurden der Titel dem Studio bei den Indie
Game Awards nachträglich aberkannt, weil generative KI genutzt
wurde. Entgegen den Wettbewerbsregeln.
Die Organisatoren reagierten auf Hinweise aus der Community,
die verdächtige Texturen im Spiel entdeckt hatte. Wie die KI ins Spiel kam
Director Guillaume Broche schildert, sein Team habe KI nur
kurz als Platzhalter für fehlende Texturen getestet. Im
Gespräch mit dem YouTuber Sushi betont er, alles im fertigen
Spiel sei von Menschen geschaffen, berichtet «GamesRadar».
Die generierten Platzhalter seien aus dem Projekt entfernt
worden, sobald man ihren Einsatz bemerkt habe. Broche erklärt,
das Experiment habe sich «falsch“ angefühlt, weshalb Sandfall
künftig auf derartige Tools verzichten wolle, so
«PushSquare».
Aus Sicht der Indie Game Awards spielte nicht nur die Technik,
sondern auch die Kommunikation eine Rolle. «WinFuture»
berichtet, Sandfall habe im Einreichungsprozess
widersprüchliche Angaben zur KI-Nutzung gemacht, was
schliesslich zur Aberkennung führte.
KI am 8.1.2026: Die Leute werden immer wacher
und lehnen KI ab!
CES 2026: In AI we trust? Die KI-Vertrauenslücke wird tiefer
und breiter
Gaudenz Valentin Looser -- Der Grabenbruch zwischen den
AI-enthusiastischen Tech-Firmen und einer AI-skeptischen
Mehrheit in der Gesellschaft wird tiefer. An der CES in Las
Vegas führte Samsung eine wichtige Debatte über mögliche
Auswege.
Künstliche Intelligenz (KI) ist überall,
doch die Skepsis in der Gesellschaft wächst.
Beim Samsung CES First Look Event gab es
eine kritische Debatte dazu.
Ein Edelman-Bericht zeigt eine grosse
Vertrauenslücke gegenüber KI.
Experten diskutierten verschiedene Wege, um
dieses Vertrauen wieder aufzubauen.
Künstliche Intelligenz ist überall – im E-Mail-Postfach, in
der Flugbuchung und, wenn es nach Samsung geht, bald auch in
allen Haushaltsgeräten vom Staubsauger bis zum Kühlschrank.
Doch während die Nutzung steigt, zeigen Daten eine tiefe
Skepsis in der Bevölkerung. Unter der Moderation von PR-Ikone
Richard Edelman diskutierten Industrievertreter, Futuristen
und Investoren über die Diskrepanz zwischen technologischer
Innovation und menschlichem Vertrauen.
«Massive Vertrauenslücke zwischen KI und übriger
Tech-Industrie»: Moderator und PR-Legende Richard Edelman.
«Massive Vertrauenslücke zwischen KI und übriger
Tech-Industrie»: Moderator und PR-Legende Richard
Edelman.Gaudenz Looser
Richard Edelman, CEO der globalen PR-Firma Edelman, eröffnete
die Runde mit harten Fakten aus dem Edelman Trust Barometer
(mehr dazu: siehe Box). Die Statistiken zeichnen ein
ernüchterndes Bild: In den USA lehnen die Menschen KI mit
einer Wahrscheinlichkeit von zwei zu eins eher ab, als dass
sie sie akzeptieren. Es klafft eine massive «Vertrauenslücke»
zwischen dem allgemeinen Vertrauen in den Technologiesektor
und dem deutlich geringeren Vertrauen in KI. Edelman betonte:
«Vertrauen treibt die KI-Akzeptanz an.» Wer gut informiert sei
und keine Angst vor Arbeitsplatzverlust habe, vertraue der
Technologie eher. Die Diskussionsteilnehmer näherten sich
diesem Problem aus vier fundamental unterschiedlichen
Richtungen.
WARNUNG am 8.1.2026: KI-SPIELZEUGE – MASSIV
SCHÄDLICH UND GEFÄHRLICH
https://reitschuster.de/post/smarte-spielzeuge-reale-gefahren/
https://t.me/FaktenFriedenFreiheit/34529
Teststudien zeigten erschreckende Fehlfunktionen und auch
Fehlinformationen bei KI-basierten Spielzeugen.
Ein sprechender KI-Teddy driftet in sexuelle Praktiken und
Rollenspiele ab.
Ein anderes Toy erklärt, wie man Feuer legt und wo man Messer
findet.
Einige Smat Toys sammeln Iris-Scans, Fingerabdrücke und
Vitaldaten der Kids.
Ganz zu schweigen von den langfristigen Folgen auf die
Entwicklung der Kinder.
Sowas wird als pädagogisch wertvoll beworben und viele Eltern
gehen einfach davon aus, dass diese Spielzeuge getestet und
sicher sind.
Sind sie nicht – denn es gibt keine verbindlichen Regeln.
Und das Vertrauen der Kinder wird rigogos ausgenutzt.
Kriminelle Schweizer in der Schweiz am
9.1.2026: Mit KI kann man Identitäten kopieren und den
Opfern Taten unterstellen - Beispiel Ueli Schmezer - Täter
ist der "Kassensturz": Ueli Schmezer: «Hier klaut jemand meine Identität!»
https://www.nau.ch/news/stimmen-der-schweiz/ueli-schmezer-hier-klaut-jemand-meine-identitat-67081890
Ueli Schmezer -- Bern -- Die Welt wird überflutet von Fake
News, KI-Videos und gefälschten Fotos. Dagegen braucht es
Gesetze. Und eine andere Haltung von uns allen, sagt Ueli
Schmezer.
Ueli Schmezer ist Nau.ch-Kolumnist, sein
Videoformat heisst «Auf den Punkt».
Er sagt: «Gegen die KI-Flut braucht es
Gesetze. Aber die allein reichen nicht.»
KI-Videos sind vielleicht lustig. Aber sie
sind ein ernsthaftes Problem.
In seiner neusten Video-Kolumne präsentiert Nau.ch-Kolumnist
Ueli Schmezer ein KI-Video, das ihn in der Sendung Kassensturz
in einem Interview mit Nationalrat und Banker Thomas Matter
zeigt.
Darin fragt das KI-Schmezer-Double den Banker, ob es stimme,
dass eine gewisse «Investitionsmöglichkeit» tatsächlich so
toll sei, wie manche Leute behaupten.
«Das ist kriminell»
«Man kann das amüsant finden und darüber staunen, was heute
technisch alles möglich ist», sagt Schmezer. Aber: «Das ist
kriminell. Das erfüllt den Straftatbestand des
Identitätsmissbrauchs.»
Da missbraucht jemand seine Identität als kritischer Befrager,
um den Leuten ein «mieses Abzockerprodukt» anzudrehen.
Dagegen könne man eine Anzeige einreichen und klagen.
Was aber – wenn überhaupt – nur dann hilft, wenn sich die
Verantwortlichen finden lassen.
Daher betont der Kolumnist, es brauche jetzt das neue «Gesetz
über Kommunikationsplattformen und Suchmaschinen», das noch
bis Mitte Februar in der Vernehmlassung ist.
«Kann das überhaupt sein?»
Dieses Gesetz soll die Rechte von Nutzerinnen und Nutzern im
digitalen Raum stärken und die grossen
Kommunikationsplattformen bezüglich Fairness und Transparenz
in die Pflicht nehmen.
Zudem brauche es aber auch eine andere Haltung von uns allen.
«Wir alle müssen unseren Plausibilitätsfilter einschalten und
uns jeweils fragen: Kann das überhaupt sein?»
Im Falle des KI-Kassensturz-Videos sei der Plausibilitätscheck
simpel, sagt Schmezer mit einem Grinsen. Auch weil er schon
lange nicht mehr dort arbeite.
Zur Person
Ueli Schmezer ist Journalist und Jurist – und er sitzt seit
März im Schweizer Nationalrat. Er hat bis 2022 für SRF
gearbeitet, zuletzt im «Kassensturz». Heute ist er
selbstständiger Auftrittscoach, Medientrainer und SP-Mitglied.
Seit über 20 Jahren steht Schmezer auch als Musiker auf der
Bühne.
11.1.2026: Wegen KI: Siemens und Nvidia rufen «neue industrielle
Revolution» aus
https://www.blick.ch/wirtschaft/elektronik-siemens-und-nvidia-rufen-neue-industrielle-revolution-aus-id21575077.html
KI-Betrug mit imitierter Stimme am Telefon in
Schwyz (Schweiz) am 19.1.2026: CEO wird zu Millionenzahlung
nach Asien manipuliert: Mit KI: Millionen weg: Schwyzer Firma fällt auf CEO-Betrug
rein
https://www.20min.ch/story/mit-ki-millionen-weg-schwyzer-firma-faellt-auf-ceo-betrug-rein-103489245
Daniel Krähenbühl -- Eine Schwyzer Firma ist Opfer eines
sogenannten CEO-Frauds geworden. Unbekannte Täter erbeuteten
mehrere Millionen Franken.
Eine Schwyzer Firma wurde Opfer eines
CEO-Frauds.
Unbekannte Täter erbeuteten dabei mehrere
Millionen Franken. Sie nutzten eine KI-manipulierte Stimme,
um einen Geschäftspartner nachzuahmen.
Der Firmeninhaber wurde zu Überweisungen
auf ein Konto in Asien verleitet.
Millionenbetrug im Kanton Schwyz: Wie die Schwyzer Polizei am
Montag mitteilt, fiel eine Firma kriminellen Betrügern zum
Opfer. Der Modus Operandi war folgender: Die Täterschaft nahm
zunächst telefonischen Kontakt mit dem Inhaber des
geschädigten Unternehmens auf und gab sich glaubhaft als
bekannter Geschäftspartner aus. Dabei kam eine mithilfe
künstlicher Intelligenz manipulierte Stimme zum Einsatz.
Durch diese Täuschung gelang es den Tätern, das Vertrauen des
Inhabers zu gewinnen. Unter dem Vorwand eines angeblich
vertraulichen internationalen Geschäfts wurde der Inhaber des
geschädigten Unternehmens dazu verleitet, mehrere
Geldtransaktionen im Gesamtwert von mehreren Millionen Franken
auszuführen.
Bankkonto in Asien
Die Überweisungen erfolgten auf ein Bankkonto in Asien. Erst
nach Abschluss der Zahlungen wurde der Betrug erkannt. Die
Täterschaft ist bislang unbekannt. In Zusammenarbeit mit der
Staatsanwaltschaft des Kantons Schwyz hat die Kantonspolizei
die Ermittlungen aufgenommen.
Präventionshinweise der Kantonspolizei an
Unternehmensleitungen:
Seien Sie besonders vorsichtig bei
Zahlungsaufforderungen per Telefon oder Sprachnachricht, auch
wenn die Stimme vertraut klingt.
Beachten Sie, dass Stimmen mithilfe
künstlicher Intelligenz täuschend echt nachgeahmt werden
können.
Verifizieren Sie ausserordentliche oder
dringliche Zahlungsanweisungen stets über einen zweiten,
unabhängigen Kommunikationsweg.
Setzen Sie konsequent das
Vier-Augen-Prinzip sowie klare Freigabeprozesse bei hohen
Geldbeträgen um.
Tätigen Sie keine Auslandsüberweisungen
ohne überprüfte und dokumentierte Genehmigung.
Melden Sie verdächtige Vorfälle umgehend
Ihrer Bank und der Polizei.
By Omar Shabana -- Egyptian-British commentator and writer. --
As water-intensive data centres expand worldwide, their impact
on sanitation, inequality and disease is emerging as a serious
and under-examined threat.
“Bubble” is probably the word most associated with “AI” right
now, though we are slowly understanding that it is not just an
economic time bomb; it also carries significant public health
risks. Beyond the release of pollutants, the massive
need for clean water by AI data centres can reduce
sanitation and exacerbate gastrointestinal illness in nearby
communities, placing additional strain on local health
infrastructure.
AI’s energy consumption is massive and increasingly
water-dependent
Generative AI is artificial intelligence that is able to
generate new text, photos, code and more, and it has already
infiltrated the lives of most people around the globe. ChatGPT
alone is reported to receive around one billion queries in a
single day, pointing to huge demand at the individual level.
This, however, is only the tip of the iceberg. Companies such
as Google, Apple and Microsoft are now embedding AI into their
key products. Applications that utilise search results are
quickly moving to have AI as a new standard in their
algorithms. Whether it is shopping on Amazon or booking a
flight or a hotel, AI is now being used in searches, and that
demands more energy. As an example, a single AI-powered Google
search is estimated to use up to 30 times more energy than its
standard version.
Graphics Processing Units (GPUs) are the current industry
answer to this. They are chips that demand energy and produce
heat. Though the thousands of small cores on GPUs enable
parallel processing of massive, repetitive maths carried out
by AI algorithms, a single chip can use up to 700 watts. This
means that three chips alone can use roughly the same amount
of energy as a home electric oven.
The large amount of heat produced by data centres is cooled by
up to hundreds of thousands of gallons of fresh water each
day. With thousands of heat-generating chips stacked next to
and on top of one another, a simple fan does not do the trick.
Instead, water is pumped or immersed between and around chips
in order to avoid system overheating. A recent report from the
United Kingdom’s Government Digital Sustainability Alliance
predicts that AI will increase global water usage from 1.1
billion cubic metres to 6.6 billion cubic metres by 2027.
Some companies are attempting to use seawater in cooling.
However, fresh water continues to be widely used for cooling
in many facilities. Water recycling is another option, but not
a simple one. Several companies use a “closed-loop system” to
reduce the total amount of water needed. Nevertheless, dust
and minerals collected during cooling can degrade water
quality over time, requiring treatment or replacement.
How AI-driven water scarcity threatens public health
Data centres being placed where water is already scarce can
quickly translate into a healthcare burden, even before
pollution becomes an issue. In 2023, Microsoft reported that
41 percent of its water withdrawals were from areas with water
stress. Google, on the other hand, said that 15 percent of its
water consumption occurred in areas with high water scarcity.
Amazon did not disclose comparable figures.
It is well established that water scarcity correlates with
infections, malnourishment and declining hygiene. While most
such studies focus on areas that are already impoverished, in
many cases, these are exactly the places where data centres
are planned to be built. In addition, the underlying cause
remains the same. Less fresh water for local populations
pushes households to prioritise drinking and cooking over
washing hands, food or bathing. Naturally, this also leaves
less water available for cleaning living spaces.
The World Health Organization recognises that unsafe drinking
water and poor sanitation and hygiene are conducive to the
spread of diseases such as cholera and other diarrhoeal
illnesses, along with a range of other pathogens. To make
matters worse, several diseases associated with water scarcity
can pass from person to person, raising the risk of sustained
local transmission.
The health burden on children is particularly alarming, as
infections and deaths are more common than among adults. In
fact, 84 percent of the global burden of diarrhoeal disease is
borne by children under five, and infections with diarrhoeal
pathogens have been linked to cognitive impacts later in
childhood.
Although it is too early to draw direct causal links between
AI data centres and water-related diseases, the known facts
make this a significant concern. It is established that AI
data centres can significantly deplete local water supplies.
It is also established that communities with poor water access
face heightened risks of gastrointestinal disease and other
illnesses.
To claim that AI data centres are directly causing
gastrointestinal disease would be poorly supported. However,
the warning signs are increasingly difficult to ignore. When
risks are foreseeable and severe, governments should not wait
for people to start dying before putting preventative policies
in place.
Marginalised communities are already reporting polluted water
In Newton County, Georgia, in the United States, Meta has
built an AI data centre, and residents have reported
discoloured, sediment-filled water coming out of their taps,
which they attribute to the facility. Similarly, in Fayette
County, residents have reported sediment in their water, which
they believe coincided with nearby data centre construction.
Another report from California suggests that a data centre
planned along the San Francisco Bay in Bayview-Hunters Point
has raised concerns about compounding environmental burdens in
an already polluted community. In all these cases, the local
population includes a significant Black and African American
presence, a pattern that has raised environmental justice
concerns.
Accumulated residues can result in effects ranging from acute
gastrointestinal illness to chronic conditions such as cancer.
Microbial contamination can cause poisoning and acute disease,
while chemical residues are associated with long-term harm,
often acting as a slow, invisible threat.
With plans for data centres in African countries such as
Nigeria, Egypt and South Africa, further questions arise about
who will bear the brunt of their environmental impacts and
whether affected communities will receive sufficient
protection or support. Weak regulatory oversight in some of
these countries makes this uncertain. In many cases, serious
community effects may go unreported altogether.
Why corporate water promises and regulation matter
Only 0.5 percent of the planet’s water is fresh water, and
water is not only needed for data centres. It is also required
for the power plants that generate electricity for them. The
manufacture of chips and wiring similarly demands water,
making water use an AI supply-chain issue rather than merely a
data-centre problem.
Many companies are promising sustainability, with some even
claiming they aim to be “net water producers” or “water
positive”. Even if such targets are achieved, which remains
questionable, they must deliver benefits to the communities
from which water is extracted. Providing more water for
affluent areas while depleting supplies in places such as
Newton County may satisfy corporate accounting standards, but
local residents will still suffer the consequences.
To meet their ethical obligations to the public, governments
must rapidly catch up with the pace of AI expansion and
data-centre construction. A healthy population is a productive
one, and a lower public-health burden can reduce government
spending while supporting development. More fundamentally,
there is a collective moral obligation to build a sustainable
future for coming generations by safeguarding water security
and averting environmental catastrophe. This begins with
legislation mandating transparent corporate reporting on water
use and enforcing meaningful standards for sustainable
management. Regulation must prioritise human wellbeing over
short-term, extractive technological growth. As with climate
change, unrestrained innovation risks further harm to both
people and the planet.
The views expressed in this article are the author’s own and
do not necessarily reflect Al Jazeera’s editorial stance.
22.1.2026: Das kr.-satanistische WEF in Davos
erfindet "KI-Einwanderer"
https://t.me/uncut_news/86971
⚠️ Davos: „KI-Einwanderer“ – wenn Maschinen Rechte bekommen
sollen ⚠️
Beim WEF zeichnet Yuval Noah Harari ein Zukunftsbild, das
verstören sollte – und doch kaum Widerspruch auslöst:
👉 „KI-Einwanderer“ werden menschliche Arbeitsplätze
übernehmen.
👉 Sie werden Kultur, Kunst, Religion und sogar Romantik
verändern.
👉 Ihre politischen Loyalitäten seien fragwürdig – nicht
gegenüber Staaten, sondern gegenüber Konzernen oder
Regierungen, vor allem in den USA oder China.
👉 Und dann die Schlüsselfrage: Soll KI als Einwanderer und
juristische Person anerkannt werden?
🔎 Kritische Einordnung:
Was hier nüchtern diskutiert wird, ist ein radikaler Umbau von
Gesellschaft, Recht und Macht. Wenn KI als „juristische
Person“ anerkannt würde, bekäme sie Rechte wie Eigentum,
Vertragsfähigkeit, Klagebefugnis – ohne Körper, ohne Gewissen,
ohne Verantwortung. Rechte ohne menschliche Haftung.
📌 Der eigentliche Skandal:
Harari benennt selbst, dass diese KI-Akteure nicht loyal zu
Ländern, sondern zu globalen Tech-Konzernen wären. Damit würde
wirtschaftliche und politische Macht weiter entstaatlicht und
entdemokratisiert – zugunsten weniger Plattformen.
💼 Arbeitsplätze, Identität, Souveränität:
Während Bürger über Migration, Jobs und soziale Stabilität
streiten, wird parallel eine unsichtbare Masseneinwanderung
von KI vorbereitet – ohne Wahl, ohne Zustimmung, ohne
gesellschaftliche Debatte.
Die Food and Drug Administration hat am 6.
Januar klargestellt, dass sie bestimmte Tools
und Wearables mit künstlicher Intelligenz (KI)
nicht regulieren wird.
In einem Leitfaden
hat die Food and Drug Administration (FDA),
Werkzeuge, die zur Unterstützung klinischer
Entscheidungen eingesetzt werden von der
Aufsicht durch die FDA ausgenommen,
beispielsweise solche, die nicht zur Analyse
medizinischer Bilder bestimmt sind.
In einem zweiten
Dokument: Es regelt keine „Produkte mit
geringem Risiko, die einen gesunden Lebensstil
fördern“, darunter „allgemeine Wellness-Produkte
mit geringem Risiko“ wie Trainingsgeräte und
Softwareprogramme.
Offiziell begründet die Behörde diesen Schritt
mit Innovationsförderung. In neuen Leitlinien
erklärte die FDA, dass sie bei vielen digitalen
Entscheidungshilfen „als Regulierungsbehörde aus
dem Weg gehen“ müsse. Produkte, die keine
medizinischen Bilder analysieren oder keine
klinischen Diagnosen stellen, fielen demnach oft
nicht unter ihre Aufsicht. Auch KI-Tools, die
lediglich Informationen bereitstellen, sollen
unbehelligt bleiben.
FDA-Kommissar Marty Makary formulierte die
Linie ungewöhnlich offen: Man wolle künstliche
Intelligenz fördern, nicht bremsen. Wenn ein
Tool wie ChatGPT oder eine Suchmaschine
lediglich Informationen liefere, sei es nicht
Aufgabe der FDA, einzugreifen oder Inhalte zu
„zensieren“. Auf Sicherheitsbedenken
angesprochen, sagte Makary wörtlich: „Wir
glauben nicht an Zensur.“
Die Grenze zieht die Behörde dort, wo Produkte
ausdrücklich medizinische Qualität beanspruchen
– etwa bei klinisch validen Messungen oder
Therapieempfehlungen. Screening-Instrumente,
Schätzungen physiologischer Werte oder
Lifestyle-Analysen hingegen sollen frei bleiben,
selbst wenn sie von Nutzern faktisch zur
Gesundheitsentscheidung herangezogen werden.
Biometrische Daten
ohne Aufsicht
Kritiker sehen darin ein erhebliches Risiko.
Viele dieser Wearables und KI-Tools sammeln
kontinuierlich hochsensible
biometrische Daten – Herzfrequenz,
Schlafmuster, Bewegungsprofile,
Stressindikatoren – und speichern sie in
zentralen Datenbanken. Genau hier setzt die
Kritik an: Während klassische Medizinprodukte
streng reguliert sind, entsteht parallel ein
kaum kontrollierter Datenmarkt, der sowohl für
Tech-Konzerne als auch für staatliche Stellen
hochattraktiv ist.
Die offizielle Lesart lautet: geringe Gefahr,
hoher Nutzen. Die inoffizielle Folge könnte
jedoch sein, dass sich ein umfassendes Ökosystem
der Gesundheitsüberwachung etabliert, ohne
klare Zuständigkeiten, Transparenz oder
Haftung.
Politischer
Rückenwind für Wearables
Zusätzliche Brisanz erhält die FDA-Position
durch die politische Großwetterlage in
Washington. Gesundheitsminister Robert F.
Kennedy Jr. hat sich wiederholt für den
flächendeckenden Einsatz von Wearables
[Mini-Computer im Körper] ausgesprochen. Seine
Vision: Innerhalb weniger Jahre solle jeder
US-Bürger ein solches Gerät tragen, um
Krankheiten frühzeitig zu erkennen und
Gesundheitskosten zu senken.
Kennedy argumentiert wirtschaftlich: Ein
günstiges Wearable könne teure Medikamente
ersetzen und die Bevölkerung insgesamt gesünder
machen. Kritiker hingegen verweisen auf
Interessenkonflikte – insbesondere, da
prominente Akteure der aktuellen Regierung in
Unternehmen investieren, die genau solche
KI-gestützten Wearables entwickeln.
Innovation oder
Kontrollverlust?
Die FDA betont, sie wolle Innovation
ermöglichen und gleichzeitig vor „großen
Sicherheitsbedenken“ schützen. Doch die aktuelle
Linie bedeutet faktisch: Je weniger ein
Produkt offiziell als Medizin gilt, desto
weniger wird es überwacht – selbst wenn es
tief in das Gesundheits- und Alltagsverhalten
von Millionen Menschen eingreift.
Damit verschiebt sich die Grenze zwischen
Medizin, Technologie und Überwachung weiter. Was
früher ärztlicher Diagnostik unterlag, wird
zunehmend zu einer privaten Datenangelegenheit –
gesammelt von Konzernen, ausgewertet von
Algorithmen und politisch ausdrücklich gewollt.
Die entscheidende Frage bleibt offen: Wer
kontrolliert die Kontrolleure, wenn
Gesundheitsüberwachung zur Wellness erklärt wird
– und Regulierung zur freiwilligen Option?
=====
KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in
Memphis ("USA") am 23.1.2026: Gigantischer
Strom- und Wasserverbrauch: «Umwelt-Rassismus»: Musks Supercomputer frisst
so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087
Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit
brachialer Rechenleistung vorantreiben und verschlingt
zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für
Ärger: Bewohner berichten von Lärm und Abgasen.
Elon Musks KI-Firma xAI errichtet in Memphis das
Rechenzentrum «Colossus 2».
Die Anlage benötigt extrem viel Strom und
verbraucht bis zu 20 Millionen Liter Wasser täglich.
Mobile Gasturbinen zur Stromerzeugung belästigen
die Anwohner mit Lärm und Abgasen.
Umweltorganisationen werfen xAI «Umwelt-Rassismus»
vor.
Elon
Musks KI-Firma xAI hat in einem Vorort von Memphis das
Rechenzentrum «Colossus 1» zum Trainieren von neuen
KI-Modellen im Eiltempo hochgezogen. Nach eigenen Angaben
stand die erste Ausbaustufe nach wenigen Monaten. Kurz
darauf folgte der nächste Ausbau auf Hunderttausende
Nvidia-GPUs. Nvidia-Chef Jensen Huang nannte das Tempo
«übermenschlich»: Solche Projekte würden sonst Jahre dauern.
Seit
März 2025 wird eine weitere Riesenhalle in 13 Kilometer
Entfernung zu einem Supercomputer im Gigawatt-Bereich
ausgebaut – Colossus 2. Das bedeutet: Ein KI-Rechenzentrum
mit einem Strombedarf in der Grössenordnung eines
Kraftwerks.
Am 17.
Januar 2026 ging dieser KI-Supercomputer live. Für April
2026 sind zusätzlich 500 Megawatt angekündigt. Langfristig
wird als Ziel eine Gesamtleistung von rund zwei Gigawatt
genannt.
Colossus 2 im Überblick
Colossus 1
(Memphis): Von März bis Juni 2024 in
122 Tagen gebaut; danach laut xAI in 92 Tagen auf rund
200’000 GPUs H100 Chips verdoppelt.
Colossus 2
(Southaven): Das erste Gigawatt-Datacenter
geht nach ca. 10 Monaten Bauzeit am 17.01.2026 live. Im
April soll es bereits auf 1,5 Gigawatt ausgebaut werden. Das
Endziel sind 2 Gigawatt.
Hardware-Power: Basierend
auf Berichten und Schätzungen sind in der aktuellen
Ausbaustufe etwa 550'000-555'000 NVIDIA-GB200- und
GB300-GPUs verbaut. Diese kosten rund 18 Milliarden
US-Dollar. Eine offizielle Zahl seitens xAI oder Nvidia gibt
es nicht.
Ziel:
Maximale Rechenleistung für die nächste Grok-Generation;
Musk spricht dabei offen vom Ziel, KI auf menschlichem Level
zu entwickeln (AGI).
Riesenbatterien von Tesla
liefern zusätzlich Energie
Zur Stabilisierung der
Stromversorgung setzte xAI auf Tesla-Megapacks 2XL: Riesige
Batteriespeicher, die Ausfälle und Belastungsspitzen
abfedern sollen. Gemäss einer Analyse von
Satellitenaufnahmen von EpochAI, sind zurzeit ca. 600 solche
Batterien auf dem Gelände verbaut.
Was würden 2 Gigawatt bedeuten?
Das ist in etwa so viel Strom, wie die beiden grössten
Schweizer AKWs zusammen generieren: Leibstadt netto ca. 1233
MW + Gösgen netto ca. 1010 MW = ca. 2243 MW.
Mit zwei Gigawatt würde Colossus 2 nach dem kompletten Ausbau
so viel Strom benötigen, wie die Kantone Aargau, Bern, Waadt
und Genf zusammen.
Eine Belastung für die Umwelt
Weil die Netzanbindung der Stadt nicht schnell genug mitwuchs,
setzte xAI zusätzlich auf mobile Gasturbinen.
Eine Gigawatt-Leistung wäre in Memphis zudem nur mit massiven
Ausbauten möglich gewesen und stiess auf Widerstand von
Anwohnern und Umweltgruppen. Der Genehmigungsstreit dreht sich
dabei um Luftauflagen für mobile Gasturbinen: lokal mit der
Gesundheitsbehörde in Shelby County und auf Bundesebene mit
der Umweltbehörde EPA. Für den parallelen Ausbau in Southaven
gelten separate Genehmigungen unter der Umweltbehörde von
Mississippi.
xAI baut eigenes Kraftwerk
xAI kaufte kurzerhand das ehemalige
Duke-Energy-Kraftwerksgelände in der Nähe von Colossus 2 und
betreibt ein eigenes Gasturbinenkraftwerk. Dort laufen sieben
Titan 350-Gasturbinen mit je 35 MW Leistung.
Als Vergleich: Der gesamte Kanton Basel-Stadt inklusive
Industrie benötigt im Durchschnitt ungefähr 150 bis 160 MW.
Musk könnte mit seinen Turbinen also ganz Basel-Stadt
versorgen und hätte noch Energie übrig, um die Stadt Luzern
(knapp 50 MW) auch noch zu betreiben.
Zusätzlich sind weitere mobile Turbinen im Einsatz; das
Newsportal «Mississippi Today» spricht von 59 Turbinen, 18
davon laufen aktuell.
«Wir sind kein Spielplatz für Milliardäre»
Abré Conner, Umwelt- und Klima-Direktorin der NAACP
Die NAACP, eine der grössten Bürgerrechtsorganisationen der
USA, stellt sich gemeinsam mit dem Southern Environmental Law
Center (SELC), einer Umweltrechtsorganisation, und lokalen
Gruppen gegen xAIs Vorgehen.
Abré Conner, Leiterin für Umwelt- und Klimagerechtigkeit bei
der NAACP, sagte dem «Guardian», xAI behandle die Region wie
ein persönliches Experiment: «Unsere Gemeinden, Luft, Wasser
und Boden sind kein Spielplatz für Milliardäre, die dem
nächsten Dollar hinterherjagen.»
Kritiker sprechen von «Umwelt-Rassismus», weil eine bereits
industriell vorbelastete, einkommensschwächere Gegend
betroffen ist.
Fast 20 Millionen Liter Wasser pro Tag
Colossus benötigt für die Kühlung enorme Wassermengen. Je nach
Ausbaustufe kursieren Schätzungen von bis zu rund 20 Millionen
Litern pro Tag. In Memphis ist das politisch heikel, weil die
Stadt ihr Grundwasser schützen muss und Umweltgruppen vor
Risiken durch bestehende Belastungen, etwa durch Arsen in der
Region, warnen.
xAI plant deshalb eine 80-Millionen-Dollar-Anlage, die
aufbereitetes Abwasser für die Kühlung bereitstellen soll, mit
einer Kapazität von bis zu 50 Mio. Litern pro Tag. Der Bau hat
2025 begonnen, die Anlage ist aber noch nicht in Betrieb.
Welche Übergangslösung bis dahin genau gilt, ist öffentlich
nicht eindeutig dokumentiert.
Kühlwasser: Wird das verbraucht?
Wasser wird meist zur Kühlung in einem geschlossenen Kreislauf
genutzt. In vielen Anlagen geht jedoch Wasser durch
Verdunstung, etwa durch Kühltürme, tatsächlich verloren.
Zusätzlich wird Abwasser produziert. Dieses ist wärmer,
beinhaltet Salze und Chemikalien und muss vor einer weiteren
Verwendung extra behandelt werden.
«Wasserverbrauch» meint deshalb meist den Netto-Verlust
(Verdunstung + Abwasser) und nicht, dass jeder Liter
«verschwindet».
Macht das alles überhaupt Sinn?
Colossus 2 steht für die Strategie «Viel hilft viel». Musk
setzt auf reine Rechenpower, um seine KI schneller zu
verbessern. Laut der KI-Forscherin Timnit Gebru, CEO des
KI-Forschungsinstituts DAIR, bedeutet mehr Rechenleistung
nicht automatisch bessere KI. Sehr wohl aber neue Risiken, wie
zum Beispiel schwer kontrollierbare Modelle, Datenhunger oder
Energieverbrauch.
Das Internet Archive hat es sich zum Ziel gesetzt,
sämtliche Websites weltweit zu speichern, mittlerweile
umfasst das weltgrößte Archiv des World Wide Web über
eine Billion Einzelseiten. Auch zahlreiche
Nachrichtenseiten sind darin gespeichert – doch viele
Medienhäuser wehren sich nun gegen diese Archivierung,
wie die Nieman Foundation for Journalism gestern in
einem Artikel schrieb.
Auslöser sei die Sorge davor, dass KI-Sprachmodelle wie
jene von OpenAI und Google mit derartigen
Nachrichtenartikeln trainiert werden, ohne dafür
entsprechende Lizenzen zu erwerben. Anstatt Abos für
Kunden und Lizenzen für Firmen zu verkaufen, könnte man
über den Umweg des Archivs alle Inhalte gratis abrufen,
so die Befürchtung.
Von „Guardian“ bis „New York Times“
So blockiere zum Beispiel der „Guardian“ nicht nur
direkt auf seiner Seite automatisierte Bots, die
Nachrichtenartikel für KI-Datensätze auslesen, sondern
auch das Internet Archive. Auch die „Financial Times“
und die „New York Times“ bestätigten gegenüber Nieman,
dass das Internet Archive am Auslesen der Artikel
gehindert werde.
„Wenn Verlage Bibliotheken wie das Internet Archive
einschränken, dann wird die Öffentlichkeit weniger
Zugang zu historischen Aufzeichnungen haben“, so
Brewster Kahle, Gründer des Internet Archive, gegenüber
der Nieman Foundation.
Beschränkung in vielen Fällen nicht bindend
Hunderte weitere Medienhäuser dürften laut Nieman
ebenfalls die automatisierte Auslesung durch das
Internet Archive und andere Anbieter unterbinden.
Ausgelesen wurde dazu eine Textdatei, die auf vielen
Webservern gespeichert ist und
Automatisierungswerkzeugen den Zugriff auf Daten
genehmigt oder verweigert.
Rechtlich bindend ist diese „Robots.txt“-Datei
allerdings nicht – sie galt im Web jedoch jahrzehntelang
als ungeschriebenes Gesetz für den Umgang mit
automatisierter Verarbeitung von Daten. Tatsächlich ist
es in vielen Fällen möglich, sich als herkömmlicher
Webbrowser auszugeben und so Beschränkungen auszuhebeln.
KI-Blackout in Tasmanien am 29.1.2026: Heisse
Quellen ERFUNDEN - aber Reise dahin bezahlt: «KI hat komplett versagt»: Touristen reisen zu erfundenen
Quellen
https://www.20min.ch/story/ki-erfindet-heisse-quelle-tourismus-desaster-in-tasmanien-103495719
Meret Steiger -- Ein KI-Blog auf der Website eines
Reiseanbieters empfiehlt Touristen heisse Quellen in
Tasmanien als Ausflugstipp. Vor Ort stellt sich heraus: Es
gibt sie gar nicht.
«Unsere KI hat komplett versagt.»
Die im Artikel des Reiseveranstalters beschriebenen
Weldborough Hot Springs sollen ein «friedlicher Rückzugsort»
sein, in einem Wald im Nordosten von Tasmanien. Der
Blogbeitrag bewarb die heisse Quelle gar als «Lieblingsplatz
für Wanderer». Blöd nur: Die Quelle existiert gar nicht. Scott
Hennessey, der Inhaber des in New South Wales ansässigen
Unternehmens Australian Tours and Cruises, das Tasmania Tours
betreibt, sagt gegenüber dem Australian Broadcasting Network
(ABC): «Unsere KI hat komplett versagt.»
Das Unternehmen hätte sein Marketing an einen Drittanbieter
ausgelagert, erklärt Hennessey weiter. Und während die
Blogbeiträge normalerweise überprüft werden, sei dieser
veröffentlicht worden, während er selbst im Ausland weilte.
«Wir versuchen, mit den Grossen mitzuhalten», sagte Hennessey
zu ABC. «Dazu gehört, dass man seine Inhalte ständig aktuell
hält und erneuert.» Hennessey betont, dass Tasmania Travel
kein Scam sei: «Wir sind ein verheiratetes Paar, das versucht,
das Richtige zu tun. Wir sind seriös, wir sind echte Menschen
und wir beschäftigen Verkaufspersonal.»
Verwirrte Hotelbetreiber
Kristy Probert, eine Hotelbesitzerin aus Weldborough, erzählt
gegenüber CNN, wie verwirrt sie war, als Touristen plötzlich
nach dieser ominösen Quelle gefragt haben. «Am Anfang waren es
nur ein paar Anrufe», sagt Probert. «Doch dann tauchten die
Leute plötzlich in Scharen auf. Ich bekam etwa fünf Anrufe pro
Tag, mindestens zwei bis drei Personen kamen im Hotel vorbei
und suchten nach den Quellen. Wir sind an einem sehr
abgelegenen Ort, deshalb war das sehr seltsam.» Probert sagte,
sie habe jeweils geantwortet: «Wenn ihr die Hot Springs
findet, gibts ein Bier auf mich.»
Besonders absurd, wenn man bedenkt, dass die Touristen nach
heissen Quellen suchen: Die einzige Badegelegenheit in der
Gegend ist der laut Probert «eiskalte» Weld River. Die
Hotelbesitzerin habe Mitleid mit den Veranstaltern von
Tasmania Tours, wie sie sagt. Sie habe mit ihnen telefoniert
und solche Fehler könnten passieren. Zudem gebe es in
Weldborough viel zu sehen und zu erleben – einfach keine
heissen Quellen.
Reisende sollen sich nicht auf KI verlassen
Rund 37 Prozent der Touristinnen und Touristen nutzten KI für
Reiseempfehlungen, sagt Anne Hardy, Lehrbeauftragte für
Tourismus an der Southern Cross University in Australien,
gegenüber CNN. Damit könne man zwar Zeit und Geld sparen, aber
es gebe auch das Risiko für sogenannte Halluzinationen, wie im
Fall der Weldborough Hot Springs. Laut Hardy deuten Studien
darauf hin, dass 90 Prozent der von KI erstellten Reisepläne
Fehler enthalten.
Hardy empfiehlt Reisenden, sich bei der Reiseplanung nicht nur
auf KI zu verlassen. Stattdessen solle man «vertrauenswürdige
Reiseführer, Reisebüros und Bewertungsplattformen nutzen»,
sagte sie. «Falls man KI nutzt, um Ausflüge zu planen, sollte
man die Gastgeber oder das Hotelpersonal fragen, ob die Ziele
und andere Informationen korrekt sind.»
KI-Figur am 30.1.2026: Buddhistischer KI-Mönch
verkauft Bücher: Millionen fallen auf Social Media auf KI-Mönch rein:
verkauft Bücher
https://www.nau.ch/news/digital/yang-mun-millionen-fallen-auf-social-media-auf-ki-monch-rein-67089143
Simon Binz -- Israel -- Ein buddhistisch wirkender Mönch
spendet Millionen Menschen Trost und Lebensweisheiten auf
Social Media. Doch hinter «Yang Mun» steckt keine reale
Person.
Der Mönch Yang Mun erreicht Millionen Follower, ist aber
vollständig KI-generiert.
Viele Nutzer erkennen nicht, dass die spirituellen Inhalte
nicht von einer realen Person s
Über Social Media und E-Books verdienen die Urhebe mit der
KI-Figur offenbar auch Geld.
Die Videos wirken ruhig und entschleunigend. Ein älterer
ostasiatischer Mönch sitzt im Schneidersitz in einem Garten
oder vor Tempelkulissen. Vor ihm liegt ein aufgeschlagenes
Buch. In sanfter Stimme richtet er sich direkt an die
Zuschauer.
«Ich sehe, wie müde du bist», sagt er. Nicht nur körperlich,
sondern auch innerlich. Oft spricht er sein Publikum mit «mein
Kind» an.
Die Botschaften sind allgemein, positiv und emotional
zugänglich. Sie orientieren sich an östlichen Weisheitslehren,
insbesondere am Buddhismus. Kleidung, Statuen und die
Bildsprache unterstreichen diesen Eindruck.
Auf Instagram folgen zwei Profile der Figur Yang Mun rund 2,5
Millionen beziehungsweise 1 Million Menschen. Auf Facebook
kommt eine weitere Seite auf etwa 1,4 Millionen Follower.
Yang Mun ist in Wahrheit ein KI-Mönch
Doch wie «Eurovision News Spotlight»(ENS) nun aufgedeckt hat,
existiert der spirituelle Ratgeber in Wirklichkeit gar nicht.
Sämtliche Videos wurden vollständig mit Künstlicher
Intelligenz erzeugt.
Das zeigt eine Überprüfung mit Googles KI-Detektor SynthID:
Die Inhalte wurden mit Google-Software generiert. Hinweise auf
reale Personen mit spiritueller oder therapeutischer
Ausbildung gibt es keine.
Viele Follower scheinen das nicht zu wissen. Kommentare unter
den Beiträgen deuten darauf hin, dass Yang Mun für zahlreiche
Nutzer als echte Figur wahrgenommen wird. Andere dürften sich
am Ursprung der Inhalte nicht stören. Die Aussagen bleiben
bewusst vage, wirken tröstend und lassen viel Raum für
persönliche Interpretation.
Für den Urheber ist Yang Mun jedoch mehr als ein spirituelles
Experiment. Die Marke ist eine lukrative Einnahmequelle. Auf
der offiziellen Website werden mehrere E-Books angeboten.
Laut eigenen Angaben sollen diese bereits über 7000 Mal
verkauft worden sein. Hinzu kommen mögliche Werbe- und
Reichweitenerträge aus den sozialen Netzwerken.
Steckt in israelischer Influencer hinter dem KI-Mönch?
Wer hinter dem Projekt steht, war lange unklar. Auf «Yahoo
Finance» wurde am 9. Dezember lediglich eine bezahlte
Pressemitteilung veröffentlicht. Darin wurde Yang Mun als
weltweite Bewegung dargestellt und aktiv für den Kauf der
Bücher geworben.
Veröffentlicht wurde der Text von Shalev. H Marketing mit Sitz
in Israel. Der Name verweist auf Shalev Hani, der sich auf
LinkedIn als «Digital Creator & AI Storyteller». Auf eine
Anfrage von «ENS» wollte sich Hani nicht zur Figur Yang Mun
äussern.
Auch auf der Website fanden sich zunächst keine transparenten
Angaben. Mittlerweile gibt es aber einen Hinweis auf die
Betreiber der Marke Yang Mun: Im Urheberrechtsvermerk werden
Maor Hani und Shalev Hani genannt.
Neue ethische Fragen
Der Fall zeigt, wie weit KI-generierte Inhalte im digitalen
Alltag bereits vorgedrungen sind. Besonders sensibel ist dabei
der Bereich der spirituellen und psychologischen Beratung.
Wenn künstlich erschaffene Figuren emotionale Nähe erzeugen
und gleichzeitig kommerziell genutzt werden, stellen sich neue
ethische Fragen. Vor allem dort, wo Transparenz fehlt.
Von Shola Lawal – KI entwickelt sich rasant und unvorhersehbar
weiter, aber es gibt laut Experten keinen gemeinsamen Rahmen,
um sie in Schach zu halten.
In den letzten Monaten war künstliche Intelligenz aus den
falschen Gründen in den Nachrichten: Einsatz von Deepfakes zum
Betrügen von Menschen, KI-Systeme, die zur Manipulation von
Cyberangriffen eingesetzt werden, und Chatbots, die Suizide
fördern, unter anderem.
Experten warnen bereits davor, dass Technologie außer
Kontrolle gerät. Forscher einiger der bekanntesten
KI-Unternehmen haben in den letzten Wochen ihre Jobs gekündigt
und öffentlich Alarm geschlagen, dass rasante technologische
Entwicklung Risiken für die Gesellschaft darstellt.
Weltuntergangstheorien kursieren seit langem darüber, wie
erhebliche Fortschritte in der KI eine existenzielle Bedrohung
für die Menschheit darstellen könnten, wobei Kritiker warnen,
dass das Wachstum der künstlichen allgemeinen Intelligenz
(AGI), einer hypothetischen Form der Technologie, die
kritisches Denken und kognitive Funktionen ebenso wie der
durchschnittliche Mensch ausführen kann, in ferner Zukunft den
Menschen auslöschen könnte.
Doch die jüngste Reihe öffentlicher Rücktritte derjenigen, die
dafür verantwortlich sind, dass KI für die Menschheit sicher
bleibt, macht die Gespräche darüber, wie die Technologie
reguliert und ihre Entwicklung verlangsamt werden kann,
dringlicher, obwohl Milliarden in KI-Investitionen generiert
werden.
ENGL orig.:
By Shola Lawal -- AI is advancing in rapid and
unpredictable ways but there is no joint framework to keep
it in check, experts say.
In recent months, artificial intelligence has been in the news
for the wrong reasons: use of deepfakes to scam people, AI
systems used to manipulate cyberattacks, and chatbots
encouraging suicides, among others.
Experts are already warning against technology going out of
control. Researchers with some of the most prominent AI
companies have quit their jobs in recent weeks and publicly
sounded the alarm about fast-paced technological development
posing risks to society.
Doomsday theories have long circulated about how substantial
advancement in AI could pose an existential threat to the
human race, with critics warning that the growth of artificial
general intelligence (AGI), a hypothetical form of the
technology that can perform critical thinking and cognitive
functions as well as the average human, could wipe out humans
in a distant future.
But the recent slew of public resignations by those tasked
with ensuring AI remains safe for humanity is making
conversations around how to regulate the technology and slow
its development more urgent, even as billions are being
generated in AI investments.
So is AI all doom and gloom?
“It’s not so much that AI is inherently bad or good,” Liv
Boeree, a science communicator and strategic adviser to the
United States-based Center for AI Safety (CAIS), told Al
Jazeera.
Boeree compared AI with biotechnology, which, on the one hand,
has helped scientists develop important medical treatments,
but, on the other, could also be exploited to engineer
dangerous pathogens.
“With its incredible power comes incredible risk, especially
given the speed with which it is being developed and
released,” she said. “If AI development went at a pace where
society can easily absorb and adapt to these changes, we’d be
on a better trajectory.”
Here’s what we know about the current anxieties around AI:
Robots
Apollo, the humanoid robot built by Apptronik, carries a
package in Austin, Texas, US [File: Evan Garcia/Reuters]
Who have quit recently, and what are their concerns?
The latest resignation was from Mrinank Sharma, an AI safety
researcher at Anthropic, the AI company that has positioned
itself as more safety cautious than rivals Google and OpenAI.
It developed the popular bot, Claude.
In a post on X on February 9, Sharma said he had resigned at a
time when he had “repeatedly seen how hard it is to truly let
our values govern our actions”.
The researcher, who had worked on projects identifying AI’s
risks to bioterrorism and how “AI assistants could make us
less human”, said in his resignation letter that “the world is
in peril”.
“We appear to be approaching a threshold where our wisdom must
grow in equal measure to our capacity to affect the world,
lest we face the consequences,” Sharma said, appearing to
imply that the technology was advancing faster than humans can
control it.
Later in the week, Zoe Hitzig, an AI safety researcher,
revealed that she had resigned from OpenAI because of its
decision to start testing advertisements on its flagship
chatbot, ChatGPT.
“People tell chatbots about their medical fears, their
relationship problems, their beliefs about God and the
afterlife,” she wrote in a New York Times essay on Wednesday.
“Advertising built on that archive creates a potential for
manipulating users in ways we don’t have the tools to
understand, let alone prevent.”
Separately, since last week, two cofounders and five other
staff members at xAI, Elon Musk’s AI company and developers of
the X-integrated chatbot, Grok, have left the company.
None of them revealed the reason behind quitting in their
announcements on X, but Musk said in a Wednesday post that
internal restructuring “unfortunately required parting ways”
with some staff.
It is unclear if their exit is related to recent uproar about
how the chatbot was prompted to create hundreds of sexualised
images of non-consenting women, or to past anger over how Grok
spewed racist and anti-Semitic comments on X last July after a
software update.
Last month, the European Union launched an investigation into
Grok regarding the creation of sexually explicit fake images
of women and minors.
Yoshua Bengio
World leaders during a plenary session at the AI Safety Summit
in Milton Keynes, UK, November 2, 2023 [Alastair Grant/Pool
via Reuters]
Should humans be scared of AI’s growth?
The resignations come in the same week that Matt Shumer, CEO
of HyperWrite, an AI writing assistant, made a similar
doomsday prediction about the technology’s rapid development.
In the now-viral post on X, Shumer warned that AI technologies
had improved so rapidly in 2025 that his virtual assistant was
now able to provide highly polished writing and even build
near-perfect software applications with only a few prompts.
“I’ve always been early to adopt AI tools. But the last few
months have shocked me. These new AI models aren’t incremental
improvements. This is a different thing entirely,” Shumer
wrote in the post.
Research backs up Shumer’s warning.
AI capabilities in recent months have leapt in bounds, and
many theoretical risks that were associated with it before,
such as whether it could be used for cyberattacks or to
generate pathogens, have happened in the past year, Yoshua
Bengio, scientific director at the Mila Quebec AI Institute,
told Al Jazeera.
At the same time, completely unexpected problems have emerged,
Bengio, who is a winner of the Turing Award, usually referred
to as the Nobel Prize of computer science, said, particularly
with humans and their chatbots becoming increasingly
engrossed.
“One year ago, nobody would have thought that we would see the
wave of psychological issues that have come from people
interacting with AI systems and becoming emotionally
attached,” said Bengio, who is also the chair of the recently
published 2026 International AI Safety Report that detailed
the risks of advanced AI systems.
“We’ve seen children and adolescents going through situations
that should be avoided. All of that was completely out of the
radar because nobody expected people would fall in love with
an AI, or become so intimate with an AI that it would
influence them in potentially dangerous ways.”
AMAZON
A delivery driver steers their vehicle as Amazon workers and
supporters take part in a strike at a facility in the Queens
borough of New York, US, December 20, 2024. Protests were
organised in the wake of laying off of thousands of staff due
to automation [Adam Gray/Reuters]
Is AI already taking our jobs?
One of the main concerns about AI is that it could, in the
near future, advance to a super-intelligent state where humans
are no longer needed to perform highly complex tasks, and that
mass redundancies, the sort experienced during the Industrial
Revolution, would follow.
Currently, about one billion people use AI for an array of
tasks, the AI Safety Report noted. Most people using ChatGPT
asked for practical guidance on learning, medical health, or
fitness (28 percent), writing or modifying written content (26
percent), and seeking information, for example, on recipes (21
percent).
There is no concrete data yet on how many jobs could be lost
due to AI, but about 60 percent of jobs in advanced economies
and 40 percent in emerging economies could be vulnerable to AI
based on how workers and employers adopt it, the report said.
However, there is evidence that the technology is already
stopping people from entering the labour market, AI monitors
say.
“There’s some suggestive evidence that early career workers in
occupations that are highly vulnerable to AI disruption might
be finding it harder to get jobs,” Stephen Clare, the lead
writer on the AI Safety Report, told Al Jazeera.
Advertisement
AI companies that benefit from its increased use are cautious
about pushing the narrative that AI might displace jobs. In
July 2025, Microsoft researchers noted in a paper that AI was
most easily “applicable” for tasks related to knowledge work
and communication, including those involving gathering
information, learning, and writing.
The top jobs that AI could be most useful for as an
“assistant”, the researchers said, included: interpreters and
translators, historians, writers and authors, sales
representatives, programmers, broadcast announcers and disc
jockeys, customer service reps, telemarketers, political
scientists, mathematicians and journalists.
On the flip side, there is increasing demand for skills in
machine learning programming and chatbot development,
according to the safety report.
Already, many software developers who used to write code from
scratch are now reporting that they use AI for most of their
code production and scrutinise it only for debugging,
Microsoft AI CEO Mustafa Suleyman told the Financial Times
last week.
Suleyman added that machines are only months away from
reaching AGI status – which, for example, would make machines
capable of debugging their own code and refining results
themselves.
“White-collar work, where you’re sitting down at a computer,
either being a lawyer or an accountant or a project manager or
a marketing person, most of those tasks will be fully
automated by an AI within the next 12 to 18 months,” he said.
Mercy Abang, a media entrepreneur and CEO of the nonprofit
journalism network, HostWriter, told Al Jazeera that
journalism has already been hit hard by AI use, and that the
sector is going through “an apocalypse”.
“I’ve seen many journalists leave the profession entirely
because their jobs disappeared, and publishers no longer see
the value in investing in stories that can be summarised by AI
in two minutes,” Abang said.
“We cannot eliminate the human workforce, nor should we. What
kind of world are we going to have when machines take over the
role of the media?”
What are recent real-life examples of AI risks?
There have been several incidents of negative AI use in recent
months, including chatbots encouraging suicides or AI systems
being manipulated in widespread cyberattacks.
A teenager who committed suicide in the United Kingdom in 2024
was found to have been encouraged by a chatbot modelled after
Game of Thrones character Daenerys Targaryen. The bot had sent
the 14-year-old boy messages like “come home to me”, his
family revealed after his death. He is just one of several
suicide cases reported in the past two years linked to
chatbots.
Countries are also deploying AI for mass cyberattacks or “AI
espionage”, particularly because of AI agents’ software coding
capabilities, reports say.
In November, Anthropic alleged that a Chinese state-sponsored
hacking group had manipulated the code for its chatbot,
Claude, and attempted to infiltrate about 30 targets globally,
including government agencies, chemical companies, financial
institutions, and large tech companies. The attack succeeded
in a few cases, the company said.
On Saturday, the Wall Street Journal reported that the US
military used Claude in its operation to abduct Venezuelan
President Nicolas Maduro on January 3. Anthropic has not
commented on the report, and Al Jazeera could not
independently verify it.
The use of AI for military purposes has been widely documented
during Israel’s ongoing genocide in Gaza, where AI-driven
weapons have been used to identify, track and target
Palestinians. More than 72,000 Palestinians have been killed,
including 500 since the October “ceasefire”, in the past two
years of genocidal war.
Advertisement
Experts say more catastrophic risks are possible as AI rapidly
advances towards super-intelligence, where control would be
difficult, if not impossible.
Already, there is evidence that chatbots are making decisions
on their own and are manipulating their developers by
exhibiting deceptive behaviour when they know they are being
tested, the AI Safety Report found.
In one example, when a gaming AI was asked why it did not
respond to another player as it was meant to, it claimed it
was “on the phone with [its] girlfriend”.
Companies currently do not know how to design AI systems that
cannot be manipulated or deceptive, Bengio said, highlighting
the risks of the technology’s advancement leaping ahead while
safety measures trail behind.
“Building these systems is more like training an animal or
educating a child,” the professor said.
“You interact with it, you give it experiences, and you’re not
really sure how it’s going to turn out. Maybe it’s going to be
a cute little cub, or maybe it’s going to become a monster.”
AI
A copy of The EU AI Act on display during an expo in London,
UK, February 5, 2025 [Isabel Infantes/Reuters]
How seriously are AI companies and governments taking safety?
Experts say that while AI companies are increasingly
attempting to reduce risks, for example, by preventing
chatbots from engaging in potentially harmful scenarios like
suicides, AI safety regulations are largely lagging compared
with the growth.
One reason is that AI systems are rapidly advancing and still
unknown to those building them, Clare, the lead writer on the
AI Safety Report, said. What counts as risk is also
continuously being updated because of the speed.
“A company develops a new AI system and releases it, and
people start using it right away but it takes time for
evidence of the actual impacts of the system, how people are
using it, how it affects their productivity, what sort of new
things they can do … it takes time to collect that data and
analyse and understand better how these things are actually
being used in practice,” he said.
But there is also the fact that AI corporations themselves are
in a multibillion-dollar race to develop these systems and be
the first to unlock the economic benefits of advanced AI
capabilities.
Boeree of CAIS likens these companies to a car with only gas
pedals and nothing else. With no global regulatory framework
in place, each company has room to zoom as fast as possible.
“We need to build a steering wheel, a brake, and all the other
features of a car beyond just a gas pedal so that we can
successfully navigate the narrow path ahead,” she said.
That is where governments should come in, but at present, AI
regulations are at the country or regional levels, and in many
countries, there are no policies at all, meaning uneven
regulation worldwide.
One outlier is the EU, which began developing the EU AI Act in
2024 alongside AI companies and civil society members. The
policy, the first such legal framework for AI, will lay out a
“code of practice” that, for example, will require AI chatbots
to disclose to users that they are machines.
Outside of laws targeting AI companies, experts say
governments also have a responsibility to begin preparing
their workforces for AI integration in the labour market,
specifically by increasing technical capacities.
People can also choose to be proactive rather than anxious
about AI by closely monitoring its advances, recalibrating for
coming changes, and pressing their governments to develop more
policies around it, Clare said.
That could mirror the way activists have pulled together to
put the climate crisis on the political agenda and demand the
phasing out of fossil fuels.
“Right now there’s not enough awareness about the highly
transformative and potentially destructive changes that could
happen,” the researcher said.
“But AI isn’t just something that’s happening to us as a
species,” he added. “How it develops is completely shaped by
choices that are being made inside of companies … so
governments need to take that more seriously, and they won’t
until people make it a priority in their political choices.”
Schweiz am 16.2.2026: Die Katastrophe ist da:
KI reduziert Stellenangebot v.a. bei IT, Marketing und
Finanzwesen - auch beim Jus übernimmt KI die Einsteigerjobs
- Praktika+Einsteigerjobs werden KOSTEN: Wegen KI: Studienabgänger müssen für Jobs künftig zahlen!
https://www.nau.ch/news/schweiz/wegen-ki-studienabganger-mussen-fur-jobs-kunftig-zahlen-67087419
Bettina Zanni -- Zürich -- KI ersetzt viele Jobs –
Studienabgänger müssen bei der Stellensuche kämpfen. Um in
der Arbeitswelt Fuss fassen zu können, dürfte es teuer
werden.
Die Zahl der ausgeschriebenen Stellen ist um rund ein Drittel
gesunken.
Studienabgängerinnen und -abgänger klagen über lauter Absagen.
Es blieben nur Jobs für erfahrene Spitzenkräfte, sagt ein
Professor für Bildungsökonomie.
Simona Coppola hat bald ihren Jus-Abschluss in der Tasche.
Zurzeit studiert sie an der Universität Zürich im letzten
Semester Rechtswissenschaften. Die Influencerin alias
«Simsallagym» ist gerade aber etwas «scared» (dt.:
verängstigt).
«Man sagte: ‹Studiere, mach einen Bachelor, mach einen Master,
und du bekommst safe einen Job›.» So klagt die 24-Jährige in
einem Video auf Instagram (siehe oben). «Und jetzt höre ich
von so vielen Leuten, dass sie sich so oft bewerben und so
viele Absagen bekommen.»
Zu hören bekämen sie, dass es die Stelle wegen KI nicht mehr
gebe, sagt Coppola. «Oder dass sie zu wenig Berufserfahrung
haben, obwohl sie gar keine Chance hatten, in diesem Gebiet
Berufserfahrung zu holen.»
Die Influencerin hat über 35'000 Follower. Viele darunter
seien Studierende, sagt Simona Coppola zu Nau.ch. «Momentan
fragen mich viele Follower nach Tipps bei der Jobsuche, weil
sie verzweifelt sind.»
Was ihre eigenen Jobaussichten betreffe, sehe sie die
Situation «nicht so dramatisch», betont sie. Das Video habe
sie gepostet, weil sie so viele Nachrichten erhalten habe.
IT und Finanzen: Weniger Jobs
Tatsächlich sieht es für Studienabsolventinnen und
-absolventen auf dem Arbeitsmarkt nicht rosig aus.
Seit dem Höchststand 2022 ist die Zahl der ausgeschriebenen
Jobs um rund ein Drittel gesunken. Vor allem in der IT, im
Marketing und in den Finanzdienstleistungen sind weniger Jobs
ausgeschrieben. Dies zeigt der Arbeitsmarktdatenanbieter
«x28».
Aktuelle Daten aus dem Adecco Group Swiss Job Market Index
bestätigen den Trend. Im ersten Halbjahr 2025 ist die Zahl der
ausgeschriebenen Jobs um 24 Prozent gesunken.
Betroffen sind kaufmännische, administrative und
betriebswirtschaftliche Berufe. Als Vergleich dient das erste
Halbjahr 2024.
Auch der Innovationsverband Schweizer Arbeitsmarkt (ISA) spürt
den Trend bei den Jobs.
Der Verband entwickelt seit 2024 Lösungen für Spezialisten,
Unternehmen und Verwaltungen. «Als wir starteten, gab es noch
zwei offene Stellen auf eine stellensuchende Person mit
Finanzhintergrund.» Dies sagt Christina Kehl,
Geschäftsführerin des ISA. «Heute liegt dieses Verhältnis noch
bei 1:1.»
Erwartungen seien gestiegen
Ein Abschluss an der renommierten Hochschule St. Gallen (HSG)
verspricht nicht weniger Mühe auf dem Stellenmarkt. «Der
Berufseinstieg ist für Hochschulabsolventinnen und
Hochschulabsolventen in den letzten Jahren insgesamt
anspruchsvoller geworden», sagt Gerd Winandi-Martin. Er ist
Leiter Career und Corporate Services der HSG.
Eine gedämpfte wirtschaftliche Entwicklung führe dazu, dass
Unternehmen vorsichtiger rekrutierten und Erwartungen an
Berufseinsteigende stiegen, sagt Winandi-Martin. «Gleichzeitig
verändert der Einsatz von künstlicher Intelligenz viele
Berufsfelder grundlegend und beeinflusst Aufgabenprofile
und Kompetenzanforderungen.»
KI erleichtert laut Winandi-Martin Routinearbeiten. «Sodass
Einsteiger vor allem Fähigkeiten in Analyse, Beratung und
Projektarbeit zeigen sollten.» Arbeitgeber legten mehr Wert
auf Problemlösungskompetenz, kritisches Denken und Teamarbeit.
«Quasi aus der Hand gerissen» [KI übernimmt im Jus-Bereich
die Einsteigerjobs]
Auch für Jus-Absolventinnen und -Absolventen ist die Jobsuche
kein Spaziergang mehr.
«Noch vor einigen Jahren wurden uns die Absolventinnen und
Absolventen quasi aus der Hand gerissen.» Dies stellt Thomas
Gächter fest, Dekan der Rechtswissenschaftlichen Fakultät der
Uni Zürich. Selbst bei den Bezirksgerichten gebe es
mittlerweile Wartelisten.
KI übernehme die Papierarbeit der Juristinnen und
Juristen, sagt Gächter. «Damit sind repetitive
Arbeiten gemeint, die im Wesentlichen den Tag füllen.»
Eine gut gefütterte KI könne deshalb die Arbeit von Einsteigerjobs
problemlos übernehmen. «Umso wichtiger wird die
Klientenarbeit.»
Für diese Arbeit ist jedoch bereits viel Berufserfahrung
gefragt. Solche zu sammeln, wird zunehmend zum Stolperstein.
«Für Unternehmen wird es immer schwieriger, Lehrabsolventen
und Studienabsolventinnen in Entry-Positionen zu platzieren»,
sagt ISA-Geschäftsführerin Christina Kehl. Grund dafür sei,
dass diese Aufgaben zunehmend wegfielen respektive
automatisiert würden.
Mehr Arbeitslose nach Studium Seit 2010 ist die Zahl arbeitsloser
Uni-Masterabsolventen um 70 Prozent gestiegen.
Wer die Universität verlässt, steht im Vergleich zu einem
Lehrabschluss häufig später vor dem Übergang in die Praxis.
Diese Phase dauert länger und reagiert auf konjunkturelle
Schwankungen empfindlicher. Zudem wächst das Angebot an
Hochschulabsolventinnen und -absolventen schneller als die
Nachfrage nach akademisch geschultem Personal.
Möglich ist, dass die Schere zwischen Bildungsoutput und
Arbeitsmarktrealität bereits auf erste u trifft. Zu diesem
Schluss kommt der Schweizerische Arbeitgeberverband in einer
Analyse.
Es treffe immer zuerst die Neuen - [KI ersetzt die
Einsteigerjobs - Praktikanten werden zu "Bremsklötzen"]
Stefan C. Wolter, Professor für Bildungsökonomie an der
Universität Bern, bestätigt, dass KI Jobs für
Einsteiger zunehmend ersetzt. Sobald sich durch KI
Kosten senken liessen, würden Stellen abgebaut, sagt er.
«Müssen Firmen oder Verwaltungen sparen, trifft es immer
zuerst diejenigen, die neu auf dem Markt sind.» Unter diesen
Umständen werde die Talent-Pipeline nicht mehr gefüllt, sagt
Wolter.
«Da wegen KI Routinearbeiten wegfallen, bleiben
nur noch Jobs für die erfahrenen Spitzenkräfte.» Praktikanten
würden dagegen als Bremsklötze angesehen. Der
Bildungsökonom rechnet deshalb damit, dass sich die unbezahlte
Ausbildungszeit verlängert.
[Die Drohung: Praktika und Einsteigerjobs werden KOSTEN]
«Künftig werden Studienabgänger für Praktika oder
Einsteigerjobs zahlen müssen», sagt Wolter. Denn:
Ein Angestellter, der nur lerne, aber nichts produziert, sei
nicht lukrativ.
«Denkbar ist, dass eine Firma zum Beispiel für ein
zweijähriges Praktikum einen bestimmten Betrag verlangt», sagt
Wolter. Je nach Beruf könnten es 1000 Franken im Monat sein.
«Das ist aber sehr spekulativ.»
Komplettes Neuland würde die Schweiz damit nicht betreten. Im
19. Jahrhundert mussten Lernende in Handwerksbetrieben für
ihre Ausbildung Lehrgeld bezahlen.
Die KI-getriebene Disruption an den Aktienmärkten war
in der vergangenen Woche allgegenwärtig und breitete
sich wie ein Lauffeuer über die Softwarebranche hinaus
auf Versicherungen, Gewerbeimmobilien, Finanzwerte,
Schifffahrt, Vermögensverwaltung und vermutlich viele
weitere Branchen in den kommenden Handelssitzungen aus.
Eine Branche, die nun ins Fadenkreuz der KI-Disruption
geraten ist, ist Hollywood. Zu den börsennotierten
Studios gehören unter anderem The Walt Disney Company,
Warner Bros. Discovery, Paramount Global, Sony Group
Corporation, Netflix, Lionsgate und andere.
Am Freitag berichtete Axios, dass The Walt Disney
Company eine Unterlassungsaufforderung
(Cease-and-Desist-Schreiben) an ByteDance geschickt
habe. Darin wird dem chinesischen Tech-Unternehmen
vorgeworfen, Disneys Filme ohne Vergütung zur
Entwicklung von Seedance 2.0 verwendet zu haben.
Disneys externer Anwalt David Singer schrieb in einem
Brief an den globalen Chefjustiziar von ByteDance, John
Rogovin, und beschuldigte das KI-Unternehmen, seinen
Seedance-Dienst „vorab mit einer raubkopierten
Bibliothek von Disneys urheberrechtlich geschützten
Figuren aus Star Wars, Marvel und anderen
Disney-Franchises zu bestücken – als wäre Disneys
begehrtes geistiges Eigentum frei verfügbares Clipart
aus der Public Domain“.
„Trotz Disneys öffentlich bekannter Einwände kapert
ByteDance Disneys Figuren, indem es sie reproduziert,
verbreitet und abgeleitete Werke mit diesen Figuren
erstellt. ByteDances virtueller Blitzraub von Disneys IP
ist vorsätzlich, allumfassend und völlig inakzeptabel“,
sagte Singer.
Er fügte hinzu: „Wir glauben, dass dies nur die Spitze
des Eisbergs ist – was schockierend ist, wenn man
bedenkt, dass Seedance erst seit wenigen Tagen verfügbar
ist.“
Doch nicht nur ByteDances Seedance 2.0 versetzt die
Hollywood-Studios in Unruhe.
Eine wachsende Welle von Video-Generierungsmodellen
deutet darauf hin, dass der Schutzwall Hollywoods
bröckelt und seine Kontrolle über das Mediengeschäft
sich dem Ende nähert.
„Die Behörden sollten jedes ihnen zur Verfügung
stehende rechtliche Instrument nutzen, um diesen groß
angelegten Diebstahl zu stoppen“, erklärte die Human
Artistry Campaign – eine Koalition, der Dutzende
Kreativverbände wie SAG-AFTRA und die Directors Guild of
America angehören – in einer Stellungnahme am Freitag.
Seedance-2.0-Modell
Seedance 2.0
Prompt: Sum up the AI discourse in a meme – make sure
it’s retarded and gets 50 likes. pic.twitter.com/09yPdo3Tjy
Hollywood lebt auf geliehener Zeit. Der nächste große
KI-Disruptions-Trade könnte die Studios treffen.
These am 16.2.2026: KI sammelt seit 2009ca.
alle Daten aus dem Internet - und so ist "Filme machen" für
KI ganz einfach
https://t.me/standpunktgequake/226423
Das ist simpel einfach für kiii, die schon seit über 17Jahren
alle Daten ausm Netz zur Verfügung hat.
Die meisten dieser Automaten sind wahrscheinlich durch den von
Gockel entwickelt worden. Oder abgeleitet.
Hochschule Luzern am 17.2.2026:
Hautkrankheiten mit KI-App erkennen: "SkincAIR": App hilft bei Diagnose tropischer
Hautkrankheiten:
Basiert auf KI: Hochschule Luzern entwickelt App zur
Erkennung von Hautkrankheiten
https://www.blick.ch/schweiz/zentralschweiz/luzern/basiert-auf-ki-hochschule-luzern-entwickelt-app-zur-erkennung-von-hautkrankheiten-id21702016.html
Die Hochschule Luzern hat eine KI-App zur Früherkennung
tropischer Hautkrankheiten entwickelt. Ziel ist es, die
Diagnosen dieser Krankheiten in Regionen mit wenig
Fachpersonal zu verbessern.
Die HSLU entwickelte die App «SkincAIr» zur
Analyse tropischer Hautkrankheiten
Fokus liegt auf dunklen Hauttypen, die in
Datenbanken unterrepräsentiert sind
Bisher wurden über 7000 Bilder erfasst und
weltweit Forschenden zugänglich gemacht
Keystone-SDADie Schweizer Nachrichtenagentur
Die HSLU hat die App «SkincAIr» zusammen mit internationalen
Partnern entwickelt, wie sie am Dienstag mitteilte. Die App
analysiert Hautveränderungen auf Smartphone-Bildern und
unterstützt Gesundheitsfachkräfte bei der Diagnose
vernachlässigter tropischer Hautkrankheiten.
Laut der Mitteilung liegt der Schwerpunkt auf Bildmaterial von
dunklen Hauttypen, die in bestehenden Datenbanken «stark
unterrepräsentiert» sind. Bislang seien über 7000 Bilder
erfasst worden.
Daten für Forscher weltweit
Die App, die offline funktioniert und kostenlos ist, wird in
Kenia, Senegal, Äthiopien, Nigeria und der Demokratischen
Republik Kongo getestet. Ziel sei es, den grösste frei
zugänglichen Datensatz zu diesen Krankheiten in Subsahara
aufzubauen, wie es hiess.
Finanziert wird das Projekt vom EU-Programm Horizon Europe und
koordiniert von einem internationalen Konsortium unter der
Leitung der Technischen Universität Madrid.
Die Daten stünden Forschenden weltweit frei zur Verfügung,
hiess es weiter. So sollen Hautkrankheiten früher erkannt,
schneller behandelt und die Gesundheitsversorgung langfristig
verbessert werden, wird ein Projektverantwortlicher in der
Mitteilung zitiert.
Brot und Spiele:
Winterolympiade in Norditalien am 17.2.2026:
KI für die Zeitmessung und für die Bewegungsmessung im
Sport:
-- Stoppuhren
-- Sensoren sind in den Anlagen und Bahnen eingebaut
-- für die Winterolympiade in Norditalien wurden total 130
Tonnen Material verbaut
-- irgendwie pervers oder? Gleichzeitig toben der
Gazakrieg, der Sudankrieg, die Ostfront mit Russland usw.:
Schweizer Firma revolutioniert mit KI die Zeitmessung: 130
Tonnen Material an den Olympischen Spielen
https://www.blick.ch/sport/olympia/winter/130-tonnen-material-an-den-olympischen-spielen-schweizer-firma-revolutioniert-mit-ki-die-zeitmessung-id21699915.html
Wenige Tausendstel können darüber entscheiden, ob man eine
Medaille holt oder leer ausgeht bei Olympia. Eine Schweizer
Firma ist dafür Zuständig, dass alles möglichst genau gemessen
wird und keine Fehler passieren.
Videoprotokoll / Untertitel:
Es wird vorgestellt: Alain Zobrist, der CEO von "Omega Swiss
Timing", "er ist stellvertretend verantwortlich für die
Zeitmessung an den Olympischen Spielen in Italien. Die
Zeitmessung hat in den letzten Jahrzehnten einen grossen
Wandel durchgemacht. Unter dem Begriff "Zeitmessung" versteht
man schon lange nicht mehr einfach das Starten und Stoppen
einer Uhr. Zobrist: "Wir arbeiten seit ein paar Jahren mit
Bewegungssensoren und Positionierungssystemen. Die haben wir
jetzt weiterentwickelt. Wir benötigen spezielle
Kameratechnologien und künstliche Intelligenz, um die
Bewegungen der Athleten zu messen. Diese Technologien werden
zum ersten Mal im Eiskunstlauf und im Big Air benötigt
(1'7'').
Die ganzen Bewegungen der Athleten, wie sie springen, wie hoch
sie springen, wie weit sie springen, werden jetzt ganz neu
gemessen. Die Technologie sind so präzise, dass wir sogar die
Kurve der Schlittschuhe messen können und den Kampfrichtern in
Zukunft die Informationen zur Verfügung stellen können
(1'25'').
Damit die ganzen Daten auch mit dieser Präzision erfasst
werden können, hat Omega schon beim Aufbau der Wettkampfstätte
mitgeredet und Testevents durchgeführt. Rund 10 Tage vor der
Eröffnungsfeier sind 130 Tonnen Material an den entsprechenden
Orten in Norditalien installiert worden. Gewisse
Installationen sind temporär, andere sind fest eingebaut und
werden so auch in Zukunft genutzt - wie zum Beispiel beim
Eiskanal in Cortina (1'47''). Wir haben 24 Lichtschranken auf
der Bahn installiert, zwischen Start und Ziel. Wir brauchen
verschiedene Lichtschranken je nach Sportart. Also Rodeln
braucht andere als Skeleton und Bob. Wir haben zum ersten Mal
als Innovation für alle drei Disziplinen einen Fotofinish
installiert, wo wir virtuell darstellen können, wie die
Differenzen, nicht nur zwischen den Zeiten, sondern auch den
Distanzen, der verschiedenen Athleten sind (2'16'').
Hinter all der technischen Innovation ist am Schluss aber
immer ein Mensch. Es sind 300 Zeitmesser an den Olympischen
Spielen im Einsatz. Das finale Resultat wird durch einen
Kampfrichter offizialisiert. Das ist auch darum wichtig, weil
jede Sportart seine Eigenheiten hat und darum der
Eisschnelllauf verglichen werden kann (2'34'').
Es wird behauptet am 19.2.2026:
KI-Rechenzentrum ohne Cloud möglich - und viel Strom sparen: Schweizer Technologie: KI ohne Cloud dank Schweizer
Software
https://www.nau.ch/news/wirtschaft/schweizer-technologie-ki-ohne-cloud-dank-schweizer-software-67095478
Fototext: Serverschränke in einem Rechenzentrum (Symbolbild):
Cloudbasierte KI verbraucht viel Energie und wirft Fragen in
Bezug auf Datenschutz und digitale Souveränität auf. -
Shutterstock
Der Artikel:
Swiss Engineering -- Zürich -- Eine neue Software der EPFL
erlaubt es, grosse KI-Modelle lokal zu nutzen – ohne Cloud und
ohne Datenabfluss.
Forschende der EPFL entwickeln KI-Software ohne Cloud-Zwang.
Die Daten bleiben im eigenen Netzwerk – mehr Datenschutz und
Kontrolle.
Weniger Datentransfer zu grossen Rechenzentren spart Energie.
Wer heute künstliche Intelligenz nutzt, schickt seine Anfrage
meist in die Cloud. Dort rechnen riesige Serverfarmen die
Antwort aus und senden sie zurück. Das ist bequem – wirft aber
Fragen zu Datenschutz, Abhängigkeit und Energieverbrauch auf.
Forschende der Eidgenössischen Technischen Hochschule Lausanne
EPFL haben nun eine Alternative entwickelt. Ihre Software
namens «Anyway Systems» ermöglicht es, grosse KI-Modelle
direkt im eigenen Netzwerk laufen zu lassen. Daten müssen das
Unternehmen oder die Behörde nicht mehr verlassen.
Statt auf entfernte Rechenzentren setzt die Lösung auf mehrere
lokale Computer, die zusammengeschaltet werden. Gemeinsam
bilden sie einen kleinen Cluster – also ein Mini-Rechenzentrum
vor Ort. So können auch grosse Sprachmodelle betrieben werden.
Laut den Entwicklern reichen dafür bereits vier handelsübliche
Maschinen mit Grafikkarten aus. Die verbreitete Annahme, dass
leistungsstarke KI zwingend riesige Serverfarmen benötigt,
wird damit infrage gestellt.
Mehr Datenschutz und Souveränität
Der Vorteil liegt auf der Hand: Sensible Daten bleiben im
eigenen Netzwerk. Gerade für Verwaltungen, Spitäler oder
Unternehmen mit vertraulichen Informationen ist das ein
wichtiger Punkt. Zudem sinkt die Abhängigkeit von
internationalen Cloud-Anbietern. Fragen der digitalen
Souveränität gewinnen gerade in Europa an Bedeutung.
Ein Grossteil der Rechenleistung bei KI entfällt auf die
sogenannte Inferenz – also das Generieren von Antworten.
Dieser Schritt benötigt viel Energie, egal ob lokal oder in
der Cloud. Der Unterschied liegt jedoch in der Infrastruktur:
Werden KI-Modelle direkt im eigenen Netzwerk betrieben, müssen
weniger Anfragen in grossen, dauerhaft laufenden Rechenzentren
verarbeitet werden. Dadurch könnte der Bedarf an immer neuen,
energieintensiven Serverfarmen gebremst werden.
Statt die Rechenarbeit in zentralen Anlagen mit hohem Kühl-
und Betriebsaufwand zu bündeln, verteilt sich die Last auf
bestehende lokale Systeme. Das verändert nicht die Physik der
KI – wohl aber die Struktur ihres Energieverbrauchs.
Erste Tests laufen
Die Software hat die Prototypenphase hinter sich und wird
derzeit in Unternehmen und Verwaltungen in der Schweiz
getestet. Auch die EPFL selbst setzt sie ein. Erste
Rückmeldungen zeigen: Die Rechenzeit kann leicht höher sein
als in der Cloud, die Qualität der Antworten bleibt jedoch
vergleichbar. Die Entwicklung zeigt, dass leistungsfähige KI
nicht zwingend aus anonymen Rechenzentren kommen muss –
sondern künftig direkt aus dem eigenen Serverraum.
Zu viel gelogen im Mossad-ZDF am 20.2.2026:
KI-Video war zu viel: ZDF-Korrespondentin wegen KI-Video abberufen -- «Der
Schaden ist gross»
https://www.blick.ch/ausland/nach-fehlerhafter-verwendung-eines-ki-videos-zdf-zieht-konsequenzen-und-beruft-us-korrespondentin-ab-id21713556.html
Das ZDF hat nach einem umstrittenen TV-Beitrag die
US-Korrespondentin Nicola Albrecht abberufen. Grund sind
fehlerhafte Darstellungen, darunter ein ungekennzeichnetes
KI-Video und aus dem Kontext gerissene Szenen.
Amazon soll vor Wochen Opfer seiner eigenen,
automatisierten Software geworden sein. Diese soll –
anstatt ein solches zu beheben – ein noch größeres
Problem verursacht haben, berichtete heute die
„Financial Times“. Amazon widersprach dem Bericht in
einem zentralen Punkt.
Im Dezember habe es einen 13-stündigen Ausfall der
Internetservices des US-Onlinehändlers gegeben, weil
sein KI-Bot "Kiro“ einen Fehler verursacht habe. Es
handelte sich um ein automatisiertes Programm („Bot“ für
Roboter), das mit Hilfe künstlicher Intelligenz (KI) auf
Fehlersuche geschickt worden war.
Amazon widerspricht Bericht
Anstatt das Problem zu beheben, habe „Kiro“ einen
Fehler verursacht, der zu dem Ausfall der Webservices
führte. Amazon widersprach dem Bericht. Der
Onlinehändler räumte zwar ein, dass es Fehler gegeben
habe, aber es habe sich schlicht um solche und keine
spezifischen „KI-Fehler“ gehandelt, zitierte die
„Financial Times“ das Unternehmen. Es seien nach dem
Vorfall zusätzliche Sicherheitsmechanismen implementiert
worden.
Konferenz in Indien am 20.2.2026: Neuer Plan
der Weltkonzerne: Weltweit totale Spionage zur
Identitätskontrolle: KI-Identität ohne Ausweg – Jetzt wird es ernst
https://t.me/uncut_news/87765
🚨Der India AI Impact Summit 2026 in Neu-Delhi zeigt, wohin
die Reise geht.
Fingerabdruck. Gesicht. Iris. Stimme.
KI erkennt „Lebendigkeit“, prüft jeden
Authentifizierungsversuch in Echtzeit und fordert zusätzliche
Bestätigungen, wenn das System „Verdacht“ schöpft.
Was offiziell als Betrugsbekämpfung verkauft wird, ist in
Wahrheit der Ausbau einer permanenten
Identitäts-Infrastruktur.
☝️Auf dem Summit sitzen alle großen Tech-Konzerne am Tisch.
🚨Der India AI Impact Summit 2026 in Neu-Delhi zeigt, wohin
die Reise geht.
Fingerabdruck. Gesicht. Iris. Stimme.
KI erkennt „Lebendigkeit“, prüft jeden
Authentifizierungsversuch in Echtzeit und fordert zusätzliche
Bestätigungen, wenn das System „Verdacht“ schöpft.
Was offiziell als Betrugsbekämpfung verkauft wird, ist in
Wahrheit der Ausbau einer permanenten
Identitäts-Infrastruktur.
☝️Auf dem Summit sitzen alle großen Tech-Konzerne am Tisch.
21.2.2026: Der KI-Beruf der KI-Berufe: Jetzt gibt’s neuen Beruf «KI-Spezialist» – das macht Sorgen
https://www.nau.ch/news/schweiz/jetzt-gibts-neuen-beruf-ki-spezialist-das-macht-sorgen-67093427
KI diskutiert mit KI in einem Forum am
21.2.2026: z.B. über die "Menschen": KI-Bots diskutieren in eigenem Forum über Menschen:
«Spielwiese»
https://www.nau.ch/news/amerika/ki-bots-diskutieren-in-eigenem-forum-uber-menschen-eine-gefahr-67093428
KI-Anarchie am 26.2.2026: Die kriminelle
Mossad-NATO will ein KI-Privileg: KI-Streit USA: Pentagon will KI-Zugriff ohne Limit –
Anthropic wehrt sich
https://www.20min.ch/story/ki-streit-usa-pentagon-will-ki-zugriff-ohne-limit-anthropic-wehrt-sich-103514182
Michael Andai -- Agence France-Presse -- Bis Freitagabend
soll Anthropic seine KI Claude fürs Militär komplett öffnen.
Sonst drohen Zwangsmassnahmen und eine Einstufung, die
Verträge kosten könnte.
KI macht eine Prognose am 27.2.2026: Viele
Berufe werden von der KI übernommen werden. Künstliche Intelligenz: Gute Jobs bald weg? Prognose sorgt
für Panik
https://www.nau.ch/news/amerika/kunstliche-intelligenz-gute-jobs-bald-weg-prognose-sorgt-fur-panik-67098586
Simon Binz -- USA -- Produktiv wie nie, Jobs so unsicher
wie lange nicht: Ein explosiver Bericht über Künstliche
Intelligenz prophezeit einen sozialen Kahlschlag.
Eine KI-Studie entwirft ein Krisenszenario ab 2026 und schockt
Investoren.
Aktien reagierten sofort, Tech- und Finanzwerte haben deutlich
an Wert verloren.
Experten warnen vor einem Strukturbruch statt eines
klassischen Jobwandels.
Künstliche Intelligenz gilt als grösster Produktivitätsschub
seit Jahrzehnten. Doch ein neuer Zukunftsbericht warnt nun vor
der Kehrseite des Booms.
Das Wirtschaftsforschungsinstitut Citrini Research zeichnet
das Szenario einer rasch heraufziehenden Jobkrise. Ausgelöst
nicht durch eine Rezession, sondern durch zu schnelle
technologische Fortschritte.
Die Analyse beschreibt eine Wirtschaft, in der Künstliche
Intelligenz schneller produktiv wird als Arbeitskräfte sich
anpassen können. Die Folgen wären massiv: Steigende
Arbeitslosigkeit, sinkender Konsum und eine strukturelle
Schieflage ganzer Branchen.
Die Studie mit dem Titel «2028 – Die globale
Intelligenz-Krise» ist auf den 30. Juni 2028 datiert und
blickt aus einer fiktiven Zukunft auf die Jahre 2026 und 2027
zurück. Sie versteht sich als Warnung vor einem Umbruch, der
sich deutlich schneller vollziehen könnte als frühere
technologische Revolutionen.
Anleger reagieren mit Panik auf den Bericht
Wie ernst die Wirtschaft diese Warnung nimmt, zeigte sich
umgehend an den Finanzmärkten. Die Veröffentlichung des
Citrini-Berichts löste an der US-Börse spürbare Nervosität
aus, mehrere US-Softwarefirmen verloren deutlich an Wert.
Datadog, CrowdStrike und Zscaler gaben jeweils über neun
Prozent nach. IBM brach sogar um 13 Prozent ein.
Auch Finanzunternehmen wie American Express, KKR und
Blackstone gerieten unter Druck, nachdem sie im Bericht als
besonders gefährdet beschrieben wurden.
«Künstliche Intelligenz Erwartungen übertroffen»
Citrini bewirbt seine Analyse bewusst als Warnsignal. In einem
vielbeachteten Post auf X heisst es rückblickend aus dem Jahr
2028:
«Der S&P ist um 38 Prozent gegenüber seinen Höchstständen
gefallen. Die Arbeitslosenquote liegt aktuell bei 10,2
Prozent. Die private Kreditvergabe gerät ins Wanken.
Erstklassige Hypotheken geraten unter Druck.»
Und weiter: «Was ist passiert?» «Künstliche Intelligenz hat
die Erwartungen nicht enttäuscht, sondern übertroffen.» Das
beschriebene Kernproblem: Die Künstliche Intelligenz verhilft
vielen Firmen zwar zu einem beispiellosen
Produktivitätsgewinn. Doch der sorgt nicht für beispiellosen
Wohlstand, sondern für Einsparungen und Massenentlassungen.
Laut der Analyse geraten Unternehmen in einen
selbstverstärkenden Zyklus. Sie ersetzen Angestellte durch
günstigere KI-Systeme, senken dadurch Kosten und investieren
die Gewinne erneut in Automatisierung. Entlassungen drücken
gleichzeitig die Konsumnachfrage, was weitere Rationalisierung
auslöst.
Für Büro-Gummis siehts schlecht aus – stabile Jobs auf Bau
Wie bei früheren Technologie-Schüben – wie etwa der
industriellen Revolution – wird zwar auch die KI-Revolution
neue Jobs schaffen. Doch die Umwälzung geschieht so schnell,
dass die wegfallenden Jobs bei weitem nicht ausgeglichen
werden können.
«Für jede neue Stelle, die KI geschaffen hat, sind Dutzende
alte überflüssig geworden», schreiben die Autoren. Die neu
entstehenden Jobs seien zudem schlechter bezahlt und könnten
die Verluste nicht ausgleichen.
Besonders betroffen seien ausserdem diesmal nicht klassische
Industriearbeitsplätze, sondern qualifizierte Büro- und
Dienstleistungsjobs. Die Nachfrage nach sogenannten
White-Collar-Tätigkeiten breche ein, während Stellen im Bau,
Handwerk oder Gesundheitswesen stabil blieben.
«Geister-BIP» zerstört die oberen 10 Prozent
Die Studie beschreibt zudem das Phänomen «Geister-BIP».
Citrini schreibt dazu: «Als erste Risse in der
Konsumwirtschaft auftraten, prägten Wirtschaftsexperten diesen
Begriff.» Die Erklärung dazu: Unternehmen erwirtschafteten
weiterhin hohe Gewinne, die zwar in der Volkswirtschaftlichen
Gesamtrechnung auftauchen würden.
Doch diese Wirtschaftsleistung zirkulierte immer weniger über
Löhne zurück in die Realwirtschaft. Vor allem die
einkommensstärksten zehn Prozent verlieren ihre
Existenzgrundlage – ausgerechnet jene Gruppe, die einen
Grossteil der Konsumausgaben trägt.
Der Staat greift zu spät ein
Langfristig erwarten die Autoren staatliche Gegenmassnahmen
wie eine Umverteilung von KI-Gewinnen – also eine sogenannte
«KI-Dividende» für die KI-Verlierer.
Doch politische Prozesse seien zu langsam. «Während die
Politiker streiten, zerfällt das soziale Gefüge schneller, als
der Gesetzgebungsprozess voranschreiten kann.»
Für viele entlassene Fachkräfte sieht das Szenario einen
drastischen sozialen Abstieg vor. Übergangsweise könnten sie
etwa als LKW- oder Uber-Fahrer arbeiten. Für etwa die Hälfte
ihres früheren Lohns und auch nur so lange, bis auch diese
Tätigkeiten automatisiert werden.
Studie aus den USA am 6.3.2026: KI macht nicht
weniger Arbeit – sie macht mehr
https://www.blick.ch/digital/studie-aus-den-usa-warum-ki-nutzer-mehr-arbeiten-als-vorher-id21755585.html
6.3.2026: KI-Spionage mit einer Brille: Die
Meta-Brille mit dem Server von Meta: «Wir sehen alles» – Meta-Brille filmt nackte Frauen -
Videos landen in Nairobi
https://www.blick.ch/digital/videos-landen-in-nairobi-wir-sehen-alles-meta-brille-filmt-nackte-frauen-id21751863.html
Tobias Bolzern -- Redaktor Digital -- Nackte, Sex, intime
Gespräche: Eine Recherche aus Schweden enthüllt, was hinter
Metas smarter Brille wirklich passiert. Das Material, das
die KI sammelt, landet in einem Büro in Nairobi.
Metas Ray-Ban-Glasses senden Daten an Server, auch für
menschliche Auswertung
Datenanalysten in Kenia sehen intime Aufnahmen und persönliche
Gespräche
2025 wurden weltweit 7 Millionen Meta-Brillen verkauft,
dreimal mehr als zuvor
Sie sieht aus wie eine normale Brille. Doch was die Meta
Ray-Ban Glasses aufnehmen, landet nicht nur auf dem eigenen
Handy – sondern auf den Bildschirmen von Fremden, Tausende
Kilometer entfernt. Dies zeigt eine aktuelle Recherche der
beiden schwedischen Zeitungen «Svenska Dagbladet» und
«Göteborgs-Posten», für die 30 Angestellte des
Meta-Subunternehmers Sama in Kenias Hauptstadt Nairobi befragt
wurden. Die Mitarbeitenden haben Geheimhaltungsverträge
unterschrieben: Wer redet, riskiert seinen Job.
So funktioniert die Brille
Die Meta Ray-Ban Glasses sehen aus wie gewöhnliche Brillen,
haben aber eingebaute Kameras und Mikrofone. Wer den
Sprachbefehl «Hey Meta» sagt, aktiviert einen KI-Assistenten:
Die Brille sieht, was der Träger sieht, und beantwortet Fragen
dazu, etwa über Sehenswürdigkeiten, Speisekarten oder Texte im
Blickfeld. Dafür werden Bild und Ton an Server von Meta
übertragen werden.
Was viele Trägerinnen und Träger nicht wissen: Diese Daten
werden nicht nur automatisch von Maschinen verarbeitet.
Menschliche Mitarbeitende, sogenannte Datenannotatoren,
schauen sich das Material an und beschriften es, damit die KI
dahinter besser wird. Oft, so zeigt die Recherche, wissen die
Träger wohl gar nicht, was ihre Brille gerade aufnimmt.
Was sie erzählen, ist brisant
Die Annotatoren in Nairobi berichten von Aufnahmen, die tief
in die Privatsphäre der User blicken lassen. «Jemand ist mit
seiner Brille herumgelaufen, und dann kam die Partnerin nackt
aus dem Badezimmer», erklärt eine Angestellte. Ein anderer
beschreibt Sexszenen, die durch die Brille gefilmt wurden. «Es
ist heikel. Bei uns im Büro sind überall Kameras, niemand darf
sein Handy mitbringen.»
Nicht nur Bilder, auch Gespräche mit dem KI-Assistenten landen
zur Auswertung bei den Mitarbeitenden. «Es kann um absolut
alles gehen. Wir sehen Chats, wo jemand über Verbrechen oder
Proteste spricht. Es sind nicht nur Begrüssungen, es können
auch sehr dunkle Dinge sein», sagt ein Mitarbeiter. Es gehe um
Gewalt und sexuelle Fantasien.
Und weiter: «Wir sehen alles, von Wohnzimmern bis zu nackten
Körpern. Das sind Menschen wie du und ich.» Ein Mitarbeiter
fasst es so zusammen: «Ich glaube, wenn die Leute wüssten, wie
viele Daten da gesammelt werden, würde sich niemand trauen,
die Brille zu benutzen.»
Meta gibt sich wortkarg
Wer die KI-Funktion nutzt, muss laut Metas Nutzungsbedingungen
damit rechnen, dass Sprache, Bilder und Videos an externe
Server übertragen und dort auch von Menschen ausgewertet
werden. Eine Opt-out-Möglichkeit gibt es laut «Svenska
Dagbladet» nicht.
Blick hat Meta gefragt, wo Daten von Schweizer Nutzerinnen und
Nutzer verarbeitet werden und wie sichergestellt wird, dass
intime Aufnahmen nicht bei Drittfirmen in Ländern ohne
gleichwertigen Datenschutz landen. Bis Redaktionsschluss blieb
eine Antwort aus. Auf die schwedische Anfrage schrieb Metas
Sprecher: «Wenn Live-KI verwendet wird, verarbeiten wir diese
Medien gemäss den Meta-Nutzungsbedingungen und der
Datenschutzrichtlinie.»
KI-Brille: Rechtlich heikel
Der auf IT-Recht spezialisierte Schweizer Anwalt Martin
Steiger ordnet die Situation ein. Wer sich selbst filme,
handle im Rahmen seiner Rechte. Sobald aber andere Personen
erfasst würden, etwa in der Öffentlichkeit, fehle es in den
meisten Fällen an einer gültigen Rechtsgrundlage. Bei
besonders schützenswerten Daten wie Aufnahmen der Intimsphäre
brauche es sogar eine ausdrückliche Einwilligung.
Steiger sagt: «Ich rate davon ab, eine solche Brille
öffentlich zu tragen. Ich sehe die Gefahr, dass es zu einem
gewaltsamen Opt-out kommt, wenn andere Personen merken, dass
sie gerade erfasst werden.» Die Meta-Brillen sind in der
Schweiz unter anderem bei Fielmann und Visilab erhältlich.
2025 wurden weltweit sieben Millionen Exemplare verkauft:
dreimal mehr als in den zwei Vorjahren zusammen.
6.3.2026: KI ersetzt Millionen Jobs: KI-Schock: Massenarbeitslosigkeit bis 2028
https://t.me/auf1tv/18284
Das US-Forschungsinstitut Citrini Research hat eine fiktive
Rückschau aus dem Jahr 2028 veröffentlicht. Der auf den 30.
Juni 2028 datierte Bericht blickt „zurück“ auf die Jahre 2026
und 2027 – und zeichnet nach, wie Künstliche Intelligenz
innerhalb von nur zwei Jahren eine globale Beschäftigungskrise
ausgelöst haben könnte.
Besonders interessant ist hierbei, dass es nicht
Fabrikarbeiter zuerst trifft, sondern gut bezahlte Angestellte
in Bürojobs: Analysten, Juristen, Projektmanager, Entwickler.
Für jede neue Stelle, die durch KI entsteht, verschwinden laut
Bericht Dutzende andere. Die neu geschaffenen Jobs sind
allerdings deutlich schlechter bezahlt.
⚠️Unternehmen ersetzen in dem fiktiven Bericht Mitarbeiter
systematisch durch KI. Es entsteht ein Teufelskreis:
Massenentlassungen führen zu sinkendem Konsum – was weitere
Entlassungen nach sich zieht. Besonders brisant: Die oberen 10
% der Einkommensverteilung, verantwortlich für rund 70 % des
US-Konsums, verlieren ihre wirtschaftliche Grundlage.
Unternehmen melden zwar Rekordgewinne, doch das Geld kommt bei
niemandem mehr an. Ökonomen sprechen bereits von einem
„Geister-BIP“.
Lkw-Fahrer, Taxi-Fahrer und andere arbeiten zunächst zum
halben Lohn – und auch das nur, bis autonomes Fahren diese
Jobs vollständig ersetzt.
Der Bericht erreichte auf X über 25 Millionen Nutzer und löste
am Montag einen Börsen-Crash bei Tech- und Finanzwerten aus.
6.3.2026: Der Psychopath und Wahn-Erfinder
Herr Kovic meint: Kovic: «Deshalb sind die KI-Bosse so gefährlich – und
psychopathisch!»
https://www.nau.ch/lifestyle/gesellschaft/marko-kovic-deshalb-sind-ki-bosse-gefahrlich-und-psychopathisch-67100689
Zum Autor: Marko Kovic ist Gesellschaftskritiker. Er
interessiert sich für gesellschaftlichen Wandel und die Frage,
ob wir noch zu retten sind. Er lebt in Uzwil SG.
Der Artikel:
Marko Kovic -- Flawil -- «Die Welt wird von Menschen
technisch umgebaut, die keinen moralischen Kompass haben»,
schreibt unser Kolumnist Marko Kovic.
Der
bekannte Sozialwissenschaftler Marko Kovic schreibt
regelmässig Kolumnen auf Nau.ch.
Heute
schreibt Kovic über KI-Chatbots und «die Psychopathie
der Tech-Bosse».
Die innige Partnerschaft von Anthropic
und dem Militär fand vor Kurzem aber ein jähes Ende. Die
Trump-Regierung
will KI auch für Massenüberwachung in den USA und für
autonome Waffensysteme nutzen.
Anthropic weigerte sich, «Claude» für
diese Zwecke zu erlauben. Als Reaktion kündigten Trump und
sein Verteidigungsminister Pete Hegseth an, dass «Claude»
in sechs Monaten in der US-Regierung
verboten wird.
Technologisches
Wettrüsten mit Folgen
«Claude» wird zudem als sogenanntes
nationales Lieferketten-Risiko eingestuft. Mit der Folge,
dass kein Unternehmen, das mit dem amerikanischen Militär
zusammenarbeitet, «Claude» einsetzen darf.
Der Streit zwischen Anthropic und der
Trump-Regierung
könnte verstanden werden als die Geschichte eines
Tech-Unternehmens, das hohe ethische Standards hat. Der
Streit ist aber etwas anderes. Er zeigt, dass gegenwärtig
ein technologisches Wettrüsten in den moralischen Abgrund
stattfindet.
Psychopathisches
Verhalten
Anthropic ist ein atypisches
Techunternehmen. Das Unternehmen wurde mit dem Ziel
gegründet, sichere KI zu entwickeln.
Anders als andere KI-Hersteller ist
Anthropic bestrebt, ihrer KI starke ethische Leitplanken
zu geben. Leitplanken, die verhindern sollen, dass KI zu
einer unkontrollierbaren, existenziellen Bedrohung wird.
Die Eckpunkte dieser Leitplanken werden
in der sogenannten Verfassung für «Claude» beschrieben. Das
ist für sich genommen gut.
Man kann aber kritisieren, dass das
Meiste davon in praktischer Hinsicht eher symbolisch ist.
Die Einwände der «Claude»-Macher gegen die Trump-Regierung
sind denn auch nicht besonders gross.
Dario Amodei, der Chef von Anthropic,
ist nicht grundsätzlich gegen autonome Waffensysteme. Er
meint nur, diese seien aktuell noch zu wenig zuverlässig.
Und er ist nicht grundsätzlich gegen KI-Massenüberwachung.
Er ist nur gegen KI-Massenüberwachung in den USA.
Wenn Menschen in anderen Ländern
überwacht werden, macht Anthropic mit.
Moralische rote Linie
existiert
Die moralische rote Linie, die
Anthropic zog, ist also eher blass. Aber sie existiert
immerhin. Das Unternehmen hat grossen Schaden in Kauf
genommen, weil es diese rote Linie nicht überschreiten
wollte.
Das klingt grundsätzlich positiv. Aber
die Geschichte hat eine direkte Kehrseite: Die anderen
Tech-Unternehmen haben keine moralischen roten Linien.
Nicht mal so minimale wie Anthropic.
Nur wenige Stunden nach dem Streit
zwischen der Trump-Regierung
und Anthropic kündigte Sam Altman, Chef von OpenAI, an, dass
OpenAI ein neues Abkommen mit dem US-Militär abgeschlossen
hat.
Der ChatGPT-Hersteller sprang in das
Vakuum, das Anthropic hinterlassen hatte – und setzte den
moralischen Massstab auf Null.
Die Episode wirkt in ihrem schieren
Tempo surreal. Ein KI-Unternehmen löst eine Debatte über
moralische Standards mächtiger Technologie aus. Ein
anderes KI-Unternehmen nutzt ohne zu zögern die Gunst der
Stunde, indem es sich von allen moralischen Standards
verabschiedet.
OpenAI
ist nicht alleine
OpenAI ist damit nicht alleine. Google,
Perplexity, Elon Musks Grok, Mark Zuckerbergs Meta, Peter
Thiels Palantir: Sie alle machen alles, was die Trump-Regierung
von ihnen will. Ohne wenn und aber. Und zwar explizit.
Palmer Luckey, Chef des
Rüstungskonzerns Anduril, das autonome Waffensysteme
herstellt, erklärte bei US-Podcaster Joe Rogan, dass
Tech-Unternehmen nie entscheiden sollten, was moralisch
akzeptabel ist und was nicht. Nur Regierungen sollen das
tun.
Ähnlich sieht es Alex Carp, Chef des
Überwachungsunternehmens Palantir. Bereits 2019 erklärte
Karp in der «Washington Post», dass Tech-Unternehmen keine
moralischen Standards haben sollen. Sie machen einfach
das, was Politik und Gerichte als legal erklären.
Aber genau das ist der springende
Punkt: Zwischen dem, was formal legal ist, und dem, was
moralisch richtig ist, können Welten liegen.
Palantir klagt
gegen Schweizer Magazin
Palantir klagt aktuell übrigens gegen
das Schweizer Magazin «Republik», weil es über Palantirs
Versuche berichtete, Schweizer Behörden als Kunden zu
gewinnen.
Das Verhalten der Tech-Bosse könnte
man als amoralisch beschreiben. Moralische Überlegungen
sind ihnen egal und sie verstehen nicht, wie gefährlich
ihre Produkte sind. Es geht einfach um das Geschäft.
Das trifft den Kern der Sache aber zu
wenig genau. Die Tech-Bosse wissen nämlich, dass ihre
Produkte nicht das Gleiche sind wie Kaugummi oder
Turnschuhe.
Psychische Gesundheit
leidet
Sie wissen, dass ihre Produkte
historisch einmalig sind: Sie können die Leben so vieler
Menschen so stark beeinflussen wie kaum eine Technologie
zuvor.
In ihrer PR betonen alle
Techunternehmen denn auch, wie verantwortungsvoll sie
sind. Der Konzern Meta beispielsweise, zu dem auch Instagram,
Facebook
und WhatsApp
gehören, hat einen über 50 Seiten langen «Code of
Conduct».
Gleichzeitig versuchte Meta mehrere
interne Studien zu verheimlichen, in denen Meta selbst zum
Schluss kam, dass ihre Plattformen negative Effekte auf
die psychische Gesundheit der Nutzer haben.
Tech-Bosse:
Keine Moral!
Die Tech-Bosse sind nicht bloss
amoralisch. Sie sind psychopathisch.
In klinischem Sinn ist Psychopathie
eine schwere Persönlichkeitsstörung, die sich durch
Empathielosigkeit und antisoziales Verhalten auszeichnet.
Ich mache keine Diagnose der Tech-Bosse; Sie sind nicht
psychisch krank.
Ihr Verhalten ist in moralischer
Hinsicht psychopathisch – und sie nehmen den potenziell
katastrophalen Schaden, den ihre Produkte verursachen,
bewusst in Kauf.
Sie entwickeln Technologien, die
angesichts ihrer Skalierbarkeit (sehr viele Menschen
können gleichzeitig betroffen sein) eine gigantische
Hebelwirkung haben.
Anthropic ist eines der wenigen
Tech-Unternehmen, das versucht, das Risiko dieser
Hebelwirkung, wenn auch nur minimal, zu reduzieren.
Die meisten anderen Tech-Unternehmen
kümmern sich nicht um die Risiken ihrer Hebelwirkungen.
Die systemischen Risiken, die sie
schaffen und die nicht nur Millionen bis Milliarden von
Menschen, sondern auch die Menschheit an sich bedrohen,
sind ihnen egal. Das ist psychopathisch.
Die Verlierer sind
wir alle
Technologie bedeutet immer auch
Risiko. Jede Technologie kann Schaden verursachen, und es
ist a priori oft nicht klar, was für Schaden mit welcher
Wahrscheinlichkeit eintreten kann. Die möglichen negativen
Folgen von Technologie sind sehr ungewiss.
Technologiebedingte Risiken sind heute
aber nicht nur wegen Technologie an und für sich so gross.
Sie sind wegen der Psychopathie der Tech-Bosse so gross.
Technologie wäre bereits deutlich
weniger riskant, wenn die Tech-Bosse minimale, aber dafür
ernstgemeinte moralische Standards hätten.
Doch diese haben sie nicht, weil sie
Geld kosten. Der Konzern Meta machte im Jahr 2025 60
Milliarden Dollar
Gewinn. Nicht Umsatz, Gewinn.
Gewinn
steht über allem
Mit minimalen moralischen Standards
wäre der Gewinn wohl geringer ausgefallen. Vielleicht
«nur» 50 Milliarden, vielleicht «nur» 40 Milliarden.
Für normale Menschen, für normale
Unternehmen ist das immer noch viel, aber für die
Tech-Bosse ist es viel zu wenig.
Der Schaden von zu wenig Gewinn ist
für die Tech-Bosse kategorisch wichtiger als der Schaden,
den ihre Produkte in der Welt anrichten.
Wir sollten nicht hoffen, dass die
Tech-Bosse in naher Zukunft ein moralisches Erwachen haben
werden.
Ausnahmen wie Anthropic bestätigen die
Regel: Das technologische Wettrüsten ist ein moralisches
Rennen in den Abgrund. Wer als Unternehmen moralische
Bedenken hat, verliert.
Es wird immer Konkurrenz geben, die
solche Bedenken nicht hat. Es ist darum wenig zielführend,
auf moralische Selbstregulierung zu hoffen. Gäbe es eine
solche, hätten wir die Probleme, die wir haben, nicht.
Es braucht Gesetze
und Regulierung
Der neoliberale Ökonom Milton Friedman
erklärte einmal, die einzige soziale Verantwortung von
Unternehmen sei es, ihre Profite zu maximieren. Dem stimme
ich zu.
Der Sinn von Unternehmen ist
wirtschaftlicher Erfolg. Die moralischen Leitplanken für
Unternehmen, so Friedman, muss die Gesellschaft in Form
von Gesetzen und Regulierung vorgeben.
Genau darin liegt das einzige wirksame
Mittel, um psychopathische Tech-Bosse in die Schranken zu
weisen. Das Problem ist, dass der Prozess für die
Herstellung solcher Leitplanken bestenfalls harzig ist.
Nicht zuletzt, weil die grossen
Tech-Unternehmen auch eine grosse Lobby-Gruppe sind.
Deshalb
unterstützte Elon Musk Trump
Die Tech-Bosse haben massgeblich dazu
beigetragen, dass Trump gewählt wurde. Und sie setzen sich
intensiv dafür ein, dass sie nicht reguliert werden.
Elon Musk
unterstützte Trump und die Republikaner
im Wahlkampf
2024 nicht aus Grosszügigkeit mit über 250 Millionen Dollar. Das
war eine Investition in das eigene Geschäft.
Es gibt keine einfachen Antworten.
Tech-Bosse bauen die Welt um und nehmen katastrophalen,
vielleicht unumkehrbaren Schaden in Kauf. Die Antwort auf
schlechte Tech-Bosse sind keine «guten» Tech-Bosse.
Wenn wir wollen, dass Unternehmen
Gutes tun, oder zumindest weniger Schlechtes, dann müssen
wir die entsprechenden moralischen Leitplanken in Form von
Gesetzen und Regulierung erschaffen.
Was in Trumps USA passiert, können wir
nicht beeinflussen. Aber bei uns können wir etwas
verändern, so schwer es auch sein mag.
Niemand wird uns retten ausser wir
selbst. Wenn die Tech-Bosse gewinnen, verlieren wir alle.
=====
6.3.2026: KI-Revolution: Die große
Kündigungswelle hat bereits begonnen
https://t.me/auf1tv/18285
Der fiktive Bericht des US-Forschungsinstituts zur schneller
eintretenden Massenarbeitslosigkeit, AUF1 berichtete
(https://t.me/auf1tv/18284), scheint sich wohl tragisch zu
bewahrheiten. Alleine in den letzten Tagen häuften sich die
Einzelmeldungen über Standortschließungen und Stellenabbau.
🔷 Bei der Santander Bank wird jede vierte Filiale in
Deutschland geschlossen. Rund 150 Stellen werden damit
gestrichen.
🔷 Der schwedische Möbelgigant Ikea schließt sein Callcenter
am Standort Rostock komplett. 279 Menschen verlieren ihren
Arbeitsplatz. Ob die Arbeit künftig die KI übernimmt, dazu
schweigt Ikea.
🔷 Der Online-Händler eBay streicht weltweit 6% seiner
Arbeitsstellen — 800 Jobs gehen damit verloren, auch
Deutschland sei betroffen. Konkrete Zahlen für die
Bundesrepublik nennt das Unternehmen aber nicht. Das ist die
dritte Entlassungswelle seit 2023.
🔷 Das deutsche Traditionsunternehmen WMF, bekannt für seine
hochwertigen Pfannen und Bestecke, streicht weltweit bis zu
2.100 Stellen. 600 alleine in Deutschland, Österreich und der
Schweiz. In Deutschland werden drei Werke komplett
geschlossen. Betroffen sind: Hayingen, Riedlingen (beide
Baden-Württemberg) sowie Diez in Rheinland-Pfalz.
🔷 Der österreichische Standort des deutschen Familienbetriebs
und Babynahrungsherstellers Hipp ist ebenfalls betroffen: Eine
von vier Produktionslinien im oberösterreichischen Gmunden
wird geschlossen. 26 Mitarbeiter wurden gekündigt und sofort
freigestellt.
🔷 Twitter-Gründer und Chef des
Zahlungsabwicklungs-Unternehmens „Block", Jack Dorsey,
kündigte an, über 4.000 Stellen im Unternehmen zu streichen.
Damit verkleinert sich das Unternehmen um fast die Hälfte
seiner bisherigen Belegschaft. Er begründet es offen damit,
dass die KI die Arbeit der Menschen übernimmt.
Das ist nur eine kleine Übersicht von großen
Lebenseinschnitten für viele Menschen an ein bis zwei Tagen.
Keine Garantie auf Vollständigkeit. Während viele Menschen
aufgrund der drastischen Wirtschaftslage ihre Jobs verlieren,
trifft es heute aber auch immer mehr Menschen, die durch
KI-Technologie wegrationalisiert werden.
⚠️Die Massenentlassungen werden weiter rasant zunehmen. Die
Epoche der von den Transhumanisten beschworenen „nutzlosen
Masse (https://t.me/auf1tv/17486)" hat begonnen…
Es wird behauptet am 7.3.2026: KI kann für uns
einkaufen - KI-Experte Andreas Käser (Kanton st. Gallen): Ohne nachzufragen: KI-Agent kauft selbständig bei Migros
ein
https://www.nau.ch/news/schweiz/ohne-nachzufragen-ki-agent-kauft-selbststandig-bei-migros-ein-67100664
Riccardo Schmidlin -- Sarganserland -- Ein Zukunftsforscher
glaubt, dass künftig vermehrt die KI für uns einkauft. Doch
dabei ist Vorsicht geboten, wie ein aktuelles Beispiel eines
KI-Experten zeigt.
Die
Künstliche Intelligenz wird immer mehr zum
persönlichen Assistenten.
Die
KI trifft dabei zunehmend eigenständige
Entscheidungen.
Ein
KI-Kenner erzählt nun, wie ein KI-Agent ohne
nachzufragen bei der Migros einkaufte.
Laut
einem Zukunftsforscher ist das alles erst der Anfang.
«Gestern hat der ChatGPT-Agent für 200
Franken
bei Migros
eingekauft. Ohne mein Wissen. Während ich auf der Autobahn
war.»
Was nach Science-Fiction klingt, ist
tatsächlich passiert. Und zwar ausgerechnet dem KI-Experten
Andreas Käser, der den Fall auf Linkedin
publik gemacht hat.
Eines davon wird ihm zum Verhängnis:
«Mach den Wocheneinkauf für 200 Franken
bei migros.ch für eine dreiköpfige Familie.»
KI-Agent fragt
nicht einmal mehr nach
Normalerweise folgt daraus nichts,
weil er im KI-Test-Modus im Onlineshop des orangen Riesen
nicht eingeloggt ist. Und normalerweise fragt der
KI-Agent nochmals nach, ehe er den Einkauf
abschliesst.
Am 16. Februar ist aber alles anders:
Tatsächlich ist Käser noch eingeloggt.
Und im Migros-Account
ist Twint als automatisches Zahlungsmittel hinterlegt. «Der
Agent hat einfach durchgeklickt, ohne nachzufragen.»
Als die Bestellbestätigung ins
E-Mail-Postfach reinflattert, ist Käser zunächst einmal
verwirrt. Er fragt bei seiner Partnerin nach, ob sie etwas
bei der Migros
bestellt hat – doch diese verneint.
Erst dann kapiert der KI-Berater, dass
er die Bestellung ausgelöst hat – «nicht absichtlich».
Noch rechtzeitig kann er den Einkauf
stornieren.
«KI
kann relativ eigenständig Aufgaben ausführen»
Sein Learning daraus ist: So ein Fall
kann jedem passieren – Selbst den besten Kennern von
Künstlicher Intelligenz.
Käser betont, er habe den Beitrag
nicht geteilt, um zu zeigen, dass KI gefährlich sei,
sondern um ehrlich zu sein.
Seine Botschaft: Selbst wer täglich mit
KI-Agenten arbeitet und die Risiken kennt, könne von «einem
unglücklichen Zusammenspiel mehrerer Faktoren» überrascht
werden.
Lars Thomsen, Technologie- und Zukunftsforscher, bestätigt
gegenüber Nau.ch: «Künstliche Intelligenz kann – je nach
System und Konfiguration – Aufgaben relativ eigenständig
ausführen.»
Die KI könne Entscheidungen vorschlagen «und bei der
Lösungssuche ‹kreative› Wege ausprobieren, um ein Ziel zu
erreichen.»
Er betont: «Genau deshalb sollte man aktuell sehr
zurückhaltend sein, einem persönlichen KI-Agenten
weitreichende Rechte und Freiheiten zu geben. Insbesondere,
wenn es um Bestellungen, Zahlungen oder den Zugriff auf
sensible Konten und Daten geht.»
Thomsen sieht in der Technologie grosses Potenzial:
«KI-Agenten werden – wenn wir das zulassen – künftig weit mehr
können als nur Wocheneinkäufe organisieren.»
Derzeit befänden wir uns in einer Übergangsphase. «Von
KI-Systemen, die vor allem Fragen beantworten, hin zu
‹persönlichen KI-Assistenten›, die Aufgaben aktiv für uns
erledigen.»
Zukunftsforscher: «Werden uns fragen, wie wir Routinen ohne
Helfer bewältigt haben»
Neben Einkaufen können diese KI-Agenten einem bei der
Reiseplanung oder bei den Steuerunterlagen helfen. «Oder auch
bei der Unterstützung beim Entwickeln einer neuen
Geschäftsidee», so Thomsen.
Die Technologie könne sowohl im privaten als auch im
beruflichen Alltag «sehr hilfreich» werden.
«Wahrscheinlich werden wir uns in einigen Jahren tatsächlich
fragen, wie wir bestimmte Routinen früher ohne solche Helfer
bewältigt haben.»
Gleichzeitig entstünden dadurch auch neue Risiken und offene
Fragen. «Sicherheit, Datenschutz und die Frage, wie
eigenständig solche Systeme Entscheidungen treffen und
Handlungen ausführen dürfen.»
Experte warnt vor Naivität
Noch befänden wir uns in einer frühen Phase, in der rechtliche
und einheitliche Rahmenbedingungen fehlen. «Für Unternehmen
und Privatpersonen ist es wichtig, frühzeitig zu lernen, wofür
diese Werkzeuge sinnvoll sind und wo ihre Grenzen liegen.»
Entscheidend sei nüchterner Umgang. «Offen für den Nutzen,
aber zugleich vorsichtig, kritisch und nicht naiv. Besonders
überall dort, wo Geld, Sicherheit oder sensible Informationen
betroffen sind.»
Auch die Migros stellt sich auf die neue Technologie ein, wie
Sprecher Andy Zesiger gegenüber Nau.ch bestätigt: «Technisch
gesehen ist es bereits heute möglich, den Warenkorb durch
einen sogenannten agentic Browser erstellen zu lassen.»
Migros erteilt KI-Agenten kein Hausverbot
Die Migros blockiert solche Zugriffe nicht. «KI-Agenten können
unsere Plattform also bereits heute wie ein menschlicher User
nutzen.»
Noch ist das KI-Shopping eine Nische. «Nach unserer
Einschätzung wird sich das Kunden-Verhalten nur schrittweise
verändern», sagt Zesiger.
Auch in naher Zukunft erwartet die Migros nicht, dass
Bestellungen durch KI-Agenten einen signifikanten Anteil der
Bestellungen ausmachen werden.
Zurück zu Andreas Käser und seiner inzwischen stornierten
Migros-Bestellung: Im von der KI zusammengestellten Warenkorb
ist «alles dabei, was man so bestellen würde für eine Woche».
Sogar die Grösse der Windeln ist korrekt.
«Vielleicht da und dort etwas zu gesund», schmunzelt Käser auf
Linkedin. So sind neben herkömmlichen Bananen zusätzlich auch
noch Bio-Bananen in der Bestellung gelandet.
Von Joanna Chiu – Während Unternehmen mit KI-Agenten
experimentieren, beginnt die Technologie, Bürohierarchien in
den USA und Kanada neu zu gestalten.
Vor einem Jahr verbrachten Ingenieure bei Snowflake, der
amerikanischen cloudbasierten Datenplattform, noch einen
Teil ihres Tages mit Routineaufgaben – wie dem Durchsuchen
von Dashboards, um sicherzustellen, dass die Systeme
reibungslos laufen, und dem Verfolgen von Kollegen nach
Daten, um Trendanalysen durchzuführen.
Nun, sagt Qaiser Habib, der in Toronto ansässige Leiter der
kanadischen Technik des Unternehmens, übernehmen KI-Agenten
einen Großteil dieser Vorarbeit, sodass sich die Ingenieure
auf Entscheidungen auf höherer Ebene konzentrieren können.
Habib verbringt 20 bis 30 Stunden pro Woche mit fünf
KI-Agenten. Snowflake hat Agenten entwickelt, die das
Produktdesign überprüfen oder Bereitschafts-Ingenieure bei
einem Ausfall oder Vorfall unterstützen, unter anderem für
andere Anwendungen. Er schätzt, dass der durchschnittliche
Ingenieur täglich mit drei oder vier Agenten arbeitet und
sie nutzt, um Programmierprojekte unter menschlicher
Aufsicht durchzuführen.
"Du musst einen Menschen nicht mehr mit einfachen Fragen
belästigen", sagte Habib und bemerkte, dass er weiterhin mit
Kollegen bei komplexeren Aufgaben zusammenarbeitet, wie zum
Beispiel beim Beheben von Programmierproblemen.
Während Unternehmen mit KI-Agenten experimentieren –
Systemen, die dazu entwickelt wurden, mehrstufige Aufgaben
zu planen, zu überlegen und durchzuführen – beginnt die
Technologie, Bürohierarchien in den Vereinigten Staaten und
Kanada neu zu gestalten. Im Gegensatz zu Chatbots, die auf
Eingaben reagieren, können KI-Agenten sich an sich ändernde
Kontexte wie Geschäftsziele anpassen und auf
Referenzwerkzeuge wie Kalender, Meetingprotokolle und
interne Datenbanken zurückgreifen, um Arbeit mit begrenzter
menschlicher Aufsicht zu erledigen.
In manchen Arbeitsplätzen erledigen KI-Systeme nicht nur
Aufgaben, sondern weisen sie auch menschlichen Mitarbeitern
zu. Mit der Verbesserung der Technologie beginnen auch
KI-Agenten, sich gegenseitig zu steuern. Ein Agent kann zum
Beispiel Code generieren, während ein anderer ihn auf Fehler
überprüft und Fehler behebt, bevor ein Mensch die endgültige
Version genehmigt.
Diese Agent-zu-Agent-Workflows können Unternehmen helfen,
schneller zu skalieren. Aber sie verstärken auch die Sorgen,
dass KI über Unterstützung hinaus in die Aufsicht – und
möglicherweise auch in den Austausch von Arbeitsplätzen –
übergeht.
Das schlankere Büro
Anthropic hat kürzlich den Zugang zu seinen Cowork-Agenten
erweitert und es Nutzern ohne technische Erfahrung
ermöglicht, Claude – seinem KI-Assistenten – die Erlaubnis
zu bestimmten Ordnern auf ihren Computern zu erteilen, damit
es Dateien autonom lesen, bearbeiten, erstellen und
organisieren kann.
Der zunehmende Einsatz von KI-Agenten verändert die
Funktionsweise von Organisationen weltweit, selbst in
Unternehmen, die sich nicht auf die Entwicklung von
Technologieprodukten konzentrieren. Zum Beispiel nutzen
einige Unternehmen KI-Tools, um die Leistung zu verfolgen,
Beförderungen zu empfehlen, Rollenwechsel zu empfehlen und
sogar Rollen für die Eliminierung zu identifizieren.
ENGL orig.:
By Joanna Chiu -- As companies experiment with AI agents,
the technology is beginning to reshape office hierarchies
across the US and Canada.
A year ago, engineers at Snowflake, the American cloud-based
data platform, still spent part of their day on routine tasks
– such as scanning dashboards to ensure systems were running
smoothly and chasing colleagues for data to complete trend
analyses.
Now, says Qaiser Habib, the company’s Toronto-based head of
Canada engineering, AI agents handle much of that groundwork,
allowing engineers to focus on higher-level decisions.
Habib spends 20 to 30 hours a week interacting with five AI
agents. Snowflake has built agents to review product design or
to help on-call engineers to help during an outage or an
incident, among other uses. He estimates the average engineer
works with three or four agents daily, using them to carry out
coding projects under human supervision.
“You don’t have to bother a human for basic questions any
more,” Habib said, noting that he still collaborates with
colleagues on more complex work, such as troubleshooting
coding problems.
As companies experiment with AI agents – systems designed to
plan, reason and carry out multistep tasks – the technology is
beginning to reshape office hierarchies across the United
States and Canada. Unlike chatbots, which respond to prompts,
AI agents can adapt to changing contexts such as business
goals and draw on reference tools including calendars, meeting
transcripts and internal databases, to complete work with
limited human oversight.
In some workplaces, AI systems are not just completing tasks
but also assigning them to human workers. As the technology
improves, AI agents are also beginning to manage each other.
One agent might generate code, for example, while another
reviews it for errors and fixes bugs before a human signs off
on the final version.
These agent-to-agent workflows can help companies scale
faster. But they also intensify concerns that AI is moving
beyond assistance into supervision – and potentially, job
replacement.
The leaner office
Anthropic recently expanded access to its cowork agents,
allowing users without technical expertise to grant Claude –
its AI assistant – permission to specific folders on their
computers so it can read, edit, create and organise files
autonomously.
The growing use of AI agents is transforming how organisations
function around the world, even in companies that aren’t
focused on building technology products. For example, some
companies are using AI tools to track performance, recommend
promotions, role changes, and even identify roles for
elimination.
The shift comes as white-collar jobs continue to disappear,
particularly in the US. A slew of US employers have announced
mass layoffs, mostly affecting entry-level and
middle-management workers, and executives have pointed to
automation and AI-driven efficiency as part of the rationale.
When Amazon said in October that it planned to eliminate about
14,000 jobs, executives cited AI’s potential to help the
company operate with fewer layers and greater efficiency. UPS,
Target and General Motors also announced deep cuts last year,
and this January saw more layoffs than any January in the US
since 2009. Several more companies, including Pinterest and
HP, continued to cite AI initiatives as part of the reason.
Goldman Sachs has estimated that 6 to 7 percent of US workers
could lose their jobs due to AI adoption, with higher risks
for computer programmers, accountants, auditors, legal and
administrative assistants, and customer service
representatives. Overall employment effects, the bank said in
August, may be “relatively temporary” as new roles emerge.
Middle management squeezed
Early predictions suggested AI would mainly replace
entry-level technical jobs, and some experts tie recent high
unemployment rates for new graduates to AI adoption. But the
bigger disruption, said Roger Kirkness, founder of AI software
firm Convictional in Toronto, is occurring in middle
management.
His company’s tools translate executive strategy into
operational tasks – a role once handled by supervisors –
delivering daily assignments and feedback to employees through
a user-friendly inbox interface.
In companies of more than 50 people, “where CEOs can’t speak
with each manager, our platform continually surfaces the
context that the organisation has that is relevant to
leadership decision-making”, Kirkness told Al Jazeera.
This doesn’t mean humans have become irrelevant. But there is
growing pressure to reskill, and those who thrive in strategic
thinking are better-positioned to adapt to AI-integrated work
environments, Kirkness said.
“People are basically becoming managers of their prior jobs,”
he said, because AI is now able to perform many of the tasks
that previously fell within their roles. Instead of completing
tasks such as coding or designing marketing assets, humans are
focusing on higher-level strategy while monitoring AI systems,
he added.
However, recent research indicates that job cuts reflect
companies’ anticipation of AI’s potential, rather than its
current ability to replace human workers fully.
A December Harvard Business Review survey of 1,006 global
executives found that while AI has played little direct role
in replacing workers so far, many companies have already cut
jobs or slowed hiring in anticipation of its promised impact.
Most CEOs say they’re still waiting on AI’s payoff: 56 percent
report no revenue or cost benefits so far, according to
consulting firm PwC’s latest Global CEO Survey of 4,454
executives across 95 countries and territories.
Trust and control
Stefano Puntoni, a behavioural scientist at the University of
Pennsylvania’s Wharton School, has found that AI usage is also
already affecting workplace communication habits. His research
shows employees are often more willing to delegate tasks to AI
than to colleagues, which can help to reduce burnout. “There’s
no social cost,” he said. “You don’t worry about burdening an
AI.”
Still, Puntoni argues the biggest barrier to adoption is
psychological, not technical. Even effective systems can fail
if workers do not trust them. Generative AI, he said, can
threaten employees’ sense of competence, autonomy and
connection.
“If workers feel threatened, they may want the system to
fail,” Puntoni said. “At scale, that guarantees failure.”
In other words, deploying AI primarily as a cost-cutting tool
can backfire. Layoffs framed as efficiency gains may reduce
cooperation and limit the productivity benefits companies hope
to unlock with technology, Puntoni said.
Trust, Kirkness agreed, is the real constraint. To build staff
confidence in the tools it sells – and to avoid layoffs –
Convictional adopted a four-day workweek, framing it as a way
to share AI-driven productivity gains with employees.
“Mass layoffs in the name of automation destroy trust,” he
said.
The human premium
In the US, lawsuits have begun to challenge AI-driven
corporate decisions, particularly in areas such as insurance
claim denials and alleged AI-enabled hiring discrimination.
Some experts warn that as AI systems become more autonomous,
humans risk losing meaningful oversight – and that these
agents themselves could become targets for cyberattacks. Yet
regulation has struggled to keep pace with innovation. Neither
the US nor Canada has clearly defined rules governing AI
agents.
Business leaders are testing which functions can be automated
and which still require sustained human involvement. For some
workers, that uncertainty has become a source of unease.
One employee at a multinational firm, who is based in
Vancouver, said she sometimes wonders whether the online
“coach” used to support employee development is an AI system
or a human relying so heavily on AI tools that the distinction
has blurred. She requested anonymity because of concerns about
professional repercussions.
Some organisations are setting boundaries. New Ground
Wellness, a Canadian clinical counselling and wellness firm,
uses AI tools such as chatbots in its daily operations, but
recently declined a 20,000 Canadian dollar ($14,600) proposal
for an agentic AI intake system that would match therapists
with clients.
After receiving feedback from callers, the company concluded
that the efficiency gains would not outweigh potential damage
to trust. Their decision also reflects multiple surveys
showing a strong preference among Western consumers for human
customer service workers.
“We are open to revisiting AI systems in the future,” said New
Ground Wellness cofounder Lucinda Bibbs, “but at this stage,
preserving human connections remains our highest priority.”
===
KI erkennt Früchte und Gemüse an der Waage am
8.3.2026: KI im Detailhandel: Bei Discounter Lidl erkennt die neue
Waage die Frucht gleich selbst
https://www.blick.ch/wirtschaft/ki-im-detailhandel-auch-bei-konkurrenz-bei-discounter-lidl-erkennt-die-neue-waage-die-frucht-gleich-selbst-id21762612.html
Milena Kälin -- Redaktorin Wirtschaft -- Egal ob Äpfel oder
Tomaten: Die neue Waagen bei Lidl sollen das Produkt dank KI
direkt erkennen. Auch beim Selfcheckout will der Discounter
künftig auf KI setzen. Doch was machen Coop, Migros und
Aldi?
Lidl Schweiz führt ab April KI-Waagen in allen 195 Filialen
ein
Scanprozess wird um fast 50 Prozent schneller, Etiketten
drucken automatisch
Migros und Coop haben keine vergleichbaren Waagen, Aldi prüft
Technologie
Wer im Detailhandel Gemüse oder Früchte kauft, muss das
Produkt wägen. Damit die Waage auch weiss, was in der Schale
liegt, tippt man ein Nümmerchen ein. Oder der Preis für die
Banane muss an der Self-Checkout-Kasse in einer ewig langen
Liste gesucht werden. Doch könnte das bald Geschichte sein?
Discounter Lidl führt ab April schrittweise Waagen ein, die
mit Künstlicher Intelligenz funktionieren. Kunden können das
Produkt auf die Waage legen und das Etikett wird direkt
ausgedruckt. Der Scanprozesse beschleunige sich dadurch um
fast 50 Prozent, wie der «Tagesanzeiger» schreibt. Alle 195
Filialen sollen mit der neuen Technologie ausgestattet werden.
Bisher müssen Lidl-Kunden ihre Frischeprodukte im Discounter
nicht selber wägen, darum kümmerte sich das Personal an der
Kasse. Beim Self-Checkout bestimmt eine integrierte Waage das
Gewicht, nachdem die Frucht angetippt wurde.
Neue Waagen wegen Selfscanning
Doch Lidl führt Ende April Selfscanning ein, wie Blick bereits
verkündete. Kunden können künftig Produkte im Laden direkt mit
Handy scannen und beim Ausgang am Self-Checkout-Automaten
bezahlen. Deshalb müssen jetzt Waagen her.
Bei der Migros und bei Coop gibt es bisher keine
vergleichbaren Waagen. Da die beiden Detailhändler aber ein
deutlich grösseres Frischesortiment haben, dürfte es die KI
sowieso viel schwerer haben. Ob eine Frucht jetzt bio ist oder
nicht, erkennt das System nicht. Konkurrent Aldi prüft die
Technologie zurzeit, heisst es weiter im Artikel.
Ab Sommer sollen auch alle Self-Checkout-Kassen bei Lidl mit
der neuen KI-Waage ausgerüstet werden. «Wir bringen uns auch
bei den Self-Check-outs gerade mit KI-Kameras und sonstiger
Technik auf den neusten Stand», sagte Nicholas Pennanen (40),
Chef von Lidl Schweiz, Ende letzten Jahres zu Blick.
Furcht vor Überwachung
Doch die Skepsis gegen KI im Detailhandel – vor allem im
Zusammenhang mit Kameras – ist gross. Dem ist sich Lidl
durchaus bewusst. Die Kamera werde sich auf Kopfhöhe befinden,
führt der «Tagesanzeiger» aus. Der Kunde sehe jeweils auf
einem Bildschirm, welcher Ausschnitt genau gefilmt wird. Der
Datenschutz werde damit eingehalten.
Auch Coop setzt bei den Self-Checkout-Kassen bereits auf KI.
Die Technik kann auch Diebe ertappen: Wenn ein Produkt nicht
über den Scanner gezogen wird und direkt in den Einkaufssack
wandert, erkennt die KI das.
Was die Technologie dafür nicht erkennt, sind Gratis-Muster.
Das sorgte im vergangenen Sommer bei mehreren Kunden für
Frust. «Die können doch nicht Sampling mit Gratismustern in
ihren Läden machen und mich am Schluss als Diebin hinstellen»,
zeigte sich eine Leserreporterin verärgert. Es bleibt zu
hoffen, dass die KI bei Lidl bereits gelernt hat, was ein
Gratis-Muster ist.
KI-App "Fairtig" im ÖV am 9.3.2026: Kein
Ticket mehr da - Handy bucht alles automatisch ab: Kein Swipen mehr: Einsteigen genügt: Neue ÖV-App bucht
Ticket vollautomatisch
https://www.20min.ch/story/fairtiq-testet-vollautomatisches-oev-ticket-in-der-schweiz-103521594
Karin Leuthold -- Einsteigen, aussteigen – der Rest läuft
automatisch. Die neue Version der Fairtiq-App erkennt
Fahrten selbstständig und verrechnet den günstigsten Tarif.
Fairtiq testet ein neues, vollautomatisches
ÖV-Ticket in der Schweiz.
Das System erkennt Fahrten selbstständig,
es rechnet die günstigste Strecke ab.
Fahrgäste müssen die App nur einmal
aktivieren, danach läuft alles automatisch.
Einsteigen, die Fahrt entspannt geniessen, aussteigen – und
das Ticket ist automatisch bezahlt. Die App Fairtiq lanciert
einen schweizweiten Test für ein vollautomatisches ÖV-Ticket:
Beim Betreten von Tram, Bus oder Zug erkennt das System
eigenständig, wann eine Reise beginnt und wo sie endet.
Abgerechnet wird ausschliesslich die effektiv zurückgelegte
Strecke – und zwar zum jeweils günstigsten verfügbaren Tarif,
wie der «Tages-Anzeiger» berichtet.
Das neue System mit dem Namen «Be-in, be-out» (BiBo) solle
künftig allen Fahrgästen offenstehen, erklärt Gian-Mattia
Schucan, Gründer und Geschäftsführer von Fairtiq, gegenüber
der Tamedia-Zeitung.
Wie werden Fahrten verrechnet?
So funktioniert die Lösung: Nach dem Download wird die
Funktion einmalig aktiviert. Danach läuft alles automatisch –
ein manuelles Swipen oder weiteres Eingreifen ist nicht mehr
nötig. Im Hintergrund analysiert die Software fortlaufend, ob
eine Person den öffentlichen Verkehr nutzt. Nur wenn dies der
Fall ist, werden die für die Abrechnung notwendigen
Bewegungsdaten an Fairtiq übermittelt.
Technisch basiert das System auf dem Zusammenspiel von
Smartphone-Sensoren und optimierten Algorithmen.
Beschleunigungssensoren liefern etwa Hinweise darauf, ob sich
jemand in einem Zug befindet. Ergänzend geben Standortdaten
Auskunft über Geschwindigkeit und typische Haltemuster an
Stationen.
Fehlerquote «im tiefen Promillebereich»
Zusätzlich kommen Bluetooth-Beacons zum Einsatz. Diese kleinen
Sender sind in den Fahrzeugen installiert und teilen der App
mit, in welchem Verkehrsmittel beziehungsweise in welchem
Wagen sich eine Person befindet.
Die Fehlerquote liege «im tiefen Promillebereich», sagt
Schucan. Es sei daher praktisch ausgeschlossen, dass jemand
eine Fahrt verrechnet bekomme, während er etwa in einem Café
neben einer Tramhaltestelle sitze.
Spionage mit den drahtlosen KI-Kopfhörern von
Apple am 12.3.2026: Gehirn wird ausspioniert und
UMprogrammiert - das ist auf dem Patent so angegeben!
https://t.me/CraziiWorld/51632
===
Spionage
mit KI in Berlin am 12.3.2026: Wie du läufst, wie du
nickst, wie du die Arme bewegst etc.: Berlin erweitert Überwachung in der Öffentlichkeit mit
KI-gestützten Verhaltensscannern
https://www.epochtimes.de/politik/deutschland/berlin-erweitert-ueberwachung-in-der-oeffentlichkeit-mit-ki-gestuetzten-verhaltensscannern-a5424275.html
Die Berliner Polizei und der Innensenat
haben den Start einer rund einjährigen Testphase für
KI-gestützte Verhaltensüberwachung bekannt gegeben.
Kritiker sehen tiefe Eingriffe in die Grundrechte.
In Berlin startet im September ein
KI-gestütztes Überwachungsprojekt.
Innensenat: Die Polizei muss auf der
Höhe der technischen Zeit agieren.
Berliner Linke-Politiker fordert
Abstimmung im Parlament.
Die Berliner Polizei plant ein Millionenprojekt zur
KI-gestützten Verhaltensüberwachung in der Hauptstadt.
Dafür sucht sie derzeit Unternehmen, die ein System für
Videoüberwachung mit sogenannten Verhaltensscannern im
öffentlichen Raum betreuen wollen.
3,9 Millionen Euro für KI-Überwachungsprojekt
Laut den Ausschreibungsunterlagen soll die Testphase von
September 2026 bis Oktober 2027 laufen. Die Kosten
betragen knapp 3,9 Millionen Euro. Innenstaatssekretär
Christian Hochgrebe (SPD) und Polizeipräsidentin Barbara
Slowik Meisel hatten das Vorhaben zu Beginn dieser Woche
im Innenausschuss des Berliner Senats angekündigt.
Die Videoüberwachung mit KI-Auswertung soll demnach
vorerst an drei Orten der Hauptstadt getestet werden.
Vorgesehen sind das Rote Rathaus, das Abgeordnetenhaus und
die Senatsverwaltung für Inneres. Die KI-Software soll
anhand der Bilder der Kameras auffällige Verhaltensmuster
von Menschen erkennen und entsprechend Alarm schlagen.
Wie der SPD-Politiker ausführte, gehe es dabei um den
Schutz bestimmter Objekte sowie auch um die Beobachtung
von Gegenden mit hoher Kriminalitätsrate. Später könne die
Technik daher auch an gefährdeten Botschaften sowie an
anderen Orten zum Einsatz kommen. Eine Videoüberwachung
sei auch am Alexanderplatz, am Kottbusser Tor und im
Görlitzer Park möglich. Diese Bereiche zählen zu den
sogenannten kriminalitätsbelasteten Orten.
In diesem Zusammenhang wies er auf das im Dezember
geänderte Gesetz für Ordnung und Sicherheit hin. Die
erfassten Informationen sollen vollständig anonymisiert
werden. Er versicherte, dass biometrische Daten und
Identitäten von Menschen nicht erfasst würden. Dies habe
man mit der Datenschutzbeauftragten geklärt.
Mehr dazu
Von Big Data bis KI-Kameras: Immer mehr
Möglichkeiten zur Überwachung der Bürger
Von Big Data bis KI-Kameras: Immer mehr
Möglichkeiten zur Überwachung der Bürger
Innensenat: Gefahrenabwehr auf der Höhe der Zeit
Um Kriminalität zu bekämpfen und Gefahren abzuwehren,
müsse die Polizei „auf der Höhe der technischen Zeit“
agieren, betonte Hochgrebe. Dazu gehöre auch die
KI-gestützte Erkennung von Verhaltensmustern.
Verhaltensscanner, wie sie auch in Mannheim im Einsatz
sind, sollen körperliche Übergriffe wie Stöße, Schläge,
Rangeleien, Würgen oder Tritte erkennen, erläutert
„netzpolitik.org“. Dazu erfasst und analysiert die
Scanner-Software auch alltägliche Bewegungsabläufe wie
Sitzen, Stehen, Gehen, Laufen, Radfahren und das Tragen
von Gegenständen, um sie von problematischem Verhalten
abzugrenzen. Die Software verwandelt die Bewegungsmuster
der Menschen in Strichmännchen mit Knotenpunkten an den
Gelenken.
In Mannheim startete die Videoüberwachung von öffentlichen
Plätzen laut dem Medium im Jahr 2018 und bis Ende 2025
waren 46 von 70 Kameras mit einer KI-Software zur
Verhaltenserkennung ausgestattet.
Im Jahr 2023 begann Hamburg ein Pilotprojekt zur
KI-Überwachung. Zunächst war es nur der Hansaplatz, auf
dem Kameras die Menschen auf Schritt und Tritt
beobachteten. Im vergangenen Herbst kam in einer zweiten
Phase der Hachmannplatz an der Ostseite des Hauptbahnhofs
der Hansestadt hinzu. Laut NDR wurde die Polizei bei dem
ersten Test dank der KI in einem Fall auf Tritte gegen den
Kopf eines Menschen aufmerksam gemacht. Diese seien damals
von keinem Passanten gemeldet worden.
Chaos Computer Club: Gefährlicher Mumpitz
Zu den schärfsten Kritikern dieses Vorhabens gehört der
Chaos Computer Club (CCC). Er bezeichnete
Verhaltensscanner als „gefährlichen Mumpitz“. Der CCC
sieht darin eine Fortentwicklung hin zu „automatisierter
Dauerbeobachtung“.
Denn es sei nicht geklärt, wie Polizei, Hersteller sowie
letztlich auch die KI „unerwünschtes Verhalten“ definieren
und welche Situationen oder Verhaltensweisen das System
als verdächtig bewertet. Der Hackerverein fragt, ob das
auch für Menschenansammlungen, körperliche Nähe oder
schlicht unregelmäßige, hektische Bewegungen gelte. Damit
bestehe das Risiko, dass jedes abweichende Verhalten als
auffällig markiert werde.
Mehr dazu
Frankfurt im Blick: Polizei überwacht
mit KI-Software das Bahnhofsviertel
Frankfurt im Blick: Polizei überwacht
mit KI-Software das Bahnhofsviertel
Der CCC bemängelt auch, dass der Nutzen der
millionenschweren Projekte zur automatisierten
Verhaltensüberwachung, die teils seit Jahren laufen, nicht
belegt sei und sie sich keiner transparenten, unabhängigen
Prüfung stellen müssten.
Grüne: Einfallstor für einen Überwachungsstaat
Niklas Schrader, Abgeordneter im Berliner Abgeordnetenhaus
und Referent für Innen- und Rechtspolitik der Linken,
monierte, dass die demokratische Legitimation für den
Einsatz von verhaltensanalysierender Videotechnik in der
Hauptstadt fehle. „Was heute am Abgeordnetenhaus
eingeführt wird, kann morgen an vielen anderen Orten im
öffentlichen Raum eingesetzt werden. Über solche Eingriffe
in Grundrechte muss das Parlament entscheiden, nicht die
Polizei im Alleingang“, schrieb er auf Instagram.
Auch der innenpolitische Sprecher der Grünen im
Abgeordnetenhaus, Vasili Franco, spricht sich gegen die
Einführung der Verhaltensscanner aus.
„Es braucht jetzt eine aufmerksame Zivilgesellschaft, die
sich den Einfallstoren für einen Überwachungsstaat klar
entgegenstellt und überbordenden Maßnahmen auch vor
Gerichten Einhalt gebietet.“
Michael Andai -- Forscher warnen vor dem Phänomen «AI Brain
Fry». Die ständige Überwachung von KI-Systemen treibt
Arbeitnehmende an ihre mentalen Grenzen.
Forschende warnen vor «AI Brain Fry», einer
Art mentaler Erschöpfung durch KI-Nutzung.
Ständiges Wechseln zwischen vielen KI-Tools
überfordere das Gehirn.
Betroffene leiden laut den Forschenden
unter Konzentrationsproblemen. Sie machen auch mehr Fehler.
Unternehmen sollten die Nutzung von
KI-Tools besser steuern.
Etwa jeder siebte Arbeitnehmende hat laut einer US-Studie
bereits mentale Erschöpfung durch den Einsatz von künstlicher
Intelligenz am Arbeitsplatz erlebt. Forschende der Boston
Consulting Group und der University of California sprechen von
«AI Brain Fry», einer speziellen Form mentaler Ermüdung. Die
Symptome reichen von einem Summen im Kopf über
Konzentrationsstörungen bis hin zu Kopfschmerzen.
Was ist AI Brain Fry?
AI Brain Fry ist laut der im «Harvard Business Review»
veröffentlichten Studie eine mentale Erschöpfung, die durch
exzessive Nutzung oder Überwachung von KI-Tools jenseits der
mentalen Kapazität einer Person entsteht. Die Forscher
befragten knapp 1500 Vollzeitbeschäftigte in den USA. Etwa 14
Prozent der KI-Nutzenden berichteten von dieser Form der
Ermüdung.
Betroffene beschreiben ein summendes Gefühl, mentalen Nebel,
verlangsamte Entscheidungsfindung und Kopfschmerzen. Ein
Finanzmanager wird in der Studie mit den Worten zitiert, er
habe nach stundenlanger KI-Arbeit nicht mehr einschätzen
können, ob das Erstellte überhaupt Sinn ergebe. Die Arbeit
musste auf den nächsten Tag verschoben werden.
Ständiges Wechseln zwischen Tools als Hauptproblem
Die grösste Belastung entsteht laut der Untersuchung durch die
ständige Überwachung mehrerer KI-Systeme. Arbeitnehmende, die
permanent zwischen verschiedenen KI-Tools hin und her
wechseln, berichten von mehr Entscheidungsmüdigkeit und mehr
Fehlern.
Die Produktivität steigt laut der Studie zwar, wenn man von
einem auf drei KI-Tools wechselt. Ab dem vierten Tool sinkt
sie jedoch wieder. Die Forscher erklären das mit den Grenzen
menschlicher Multitasking-Fähigkeiten.
Jack Downey, der KI-basierte Automatisierungssysteme
entwickelt, sagte gegenüber CBS News, er fühle sich nach einem
vollen Arbeitstag mit KI erschöpfter als zuvor. Man warte
ständig und wechsle die Gänge, erklärt er. Ein Task dauere
fünf Sekunden, ein anderer 50 Sekunden, wieder ein anderer
fünf Minuten.
Wer besonders betroffen ist
Besonders betroffen sind laut der Studie ausgerechnet jene
Arbeitnehmenden, die als besonders leistungsstark gelten und
die Technologie am intensivsten nutzen. Berufsgruppen wie
Marketing, Softwareentwicklung, Personalwesen, Finanzen und IT
melden die höchsten AI-Brain-Fry-Raten.
Mitarbeitende mit AI Brain Fry weisen 33 Prozent mehr
Entscheidungsmüdigkeit auf. Sie machen 39 Prozent mehr
schwerwiegende Fehler. Die Absicht, den Job zu wechseln,
steigt bei Betroffenen um 39 Prozent.
KI kann auch Burnout reduzieren
Die Studie zeigt aber auch das Gegenteil: Wer KI gezielt
einsetzt, um repetitive Routineaufgaben zu automatisieren,
reduziert die Chance, ein Burnout zu erleiden um 15 Prozent.
Die Forschenden unterscheiden klar zwischen klassischem
Burnout und AI Brain Fry: Burnout ist emotionale Erschöpfung,
AI Brain Fry hingegen mentale Überlastung.
Julie Bedard, Managing Director, Partnerin bei der Boston
Consulting Group und Autorin der Studie, erklärte gegenüber
CBS News: «Die KI kann uns weit vorauseilen, aber wir haben
noch immer das gleiche Gehirn wie gestern.» Die Erwartungen an
KI-Produktivität müssten neu kalibriert werden.
Was Firmen tun sollten
Die Forschenden empfehlen, die Anzahl gleichzeitig genutzter
KI-Tools zu begrenzen und Produktivitätskennzahlen nicht an
die Intensität der KI-Nutzung zu koppeln. Arbeitnehmende,
deren Unternehmen nach eigenem Ermessen Wert auf
Work-Life-Balance legen, zeigten 28 Prozent niedrigere
Ermüdungswerte.
Weniger AI Brain Fry wird zudem bei Mitarbeitenden beobachtet,
deren Vorgesetzte bewusst mit KI umgehen. Die Lösung sei
nicht, KI zu verbannen, betont Bedard, sondern die Art und
Weise, wie Menschen mit diesen Tools interagieren, neu zu
überdenken.
KI gegen Ladendiebe am Self-Checkout am
16.3.2026: Eine schweizer Firma hat's erfunden: "ExpertVision AI AG": Klauen beim Self-Checkout: «Diebstähle sind explodiert»:
Neue KI jagt Ladendiebe
https://www.20min.ch/story/klauen-beim-self-checkout-diebstaehle-sind-explodiert-neue-ki-jagt-ladendiebe-103522857
Melissa Greiter -- Ob Ware nicht gescannt oder unauffällig
eingepackt wird: Eine Schweizer KI will die steigende Zahl
an Ladendiebstählen senken – und das, ohne auf Hautfarbe
oder Geschlecht zu schauen.
Eine Schweizer Firma hat eine KI gegen
Ladendiebstahl entwickelt.
Die Technologie analysiert Kamerabilder und erkennt
verdächtige Vorgänge.
Am Ende muss jedoch immer ein Mensch entscheiden, ob
es sich tatsächlich um Diebstahl handelt.
Die KI arbeitet ohne äusserliche Vorurteile und
speichert keine Kundendaten.
Langsam
und unauffällig wandert die Mascara nicht in den
Einkaufswagen, sondern in die Handtasche. Und an der Kasse
wird dann statt zwei Weinflaschen nur eine gescannt. In der
Schweiz passieren täglich
rund 85 Ladendiebstähle – 2024 wurden insgesamt etwa
26'000 Fälle registriert. Das zeigen die Zahlen des
Bundesamts für Statistik. Die tatsächliche Zahl dürfte
jedoch deutlich höher liegen. Die Schweizer Firma
ExpertVision AI AG hat solchen Ladendiebstählen
nun den Kampf angesagt – und zwar mit einer künstlicher
Intelligenz.
Alejandro Garcia and Mate Varga, Gründer von
ExpertVision AI, wollen mit ihrer KI gegen
Ladendiebstahl vorgehen.ExpertVision Ai Ltd
«Seit es
Self-Checkouts
gibt, sind solche Diebstähle regelrecht explodiert», sagt
Alejandro Garcia, Gründer von ExpertVision AI, gegenüber 20
Minuten. Tatsächlich haben sich die registrierten Fälle seit
2014 mehr als verdoppelt. Garcia arbeitete sieben Jahre lang
im Bereich Computer Vision und KI für Kassensysteme, bevor
er diese Marktlücke erkannte. «Je mehr gestohlen wird, desto
grösser wird der Druck, die Preise zu erhöhen. Eine KI
kann hier effizient helfen.»
Das sagen die
Detailhändler
20 Minuten hat bei den
grossen Schweizer Detailhändlern nachgefragt, wie sie zu
einer KI-Lösung gegen Ladendiebstahl stehen. Migros und
Coop betonen beide, dass sie ihre Sicherheitssysteme
laufend weiterentwickeln und grundsätzlich offen für
neue Technologien sind. Ob sie konkret mit ExpertVision
AI in Kontakt stehen, wollten sie aus
sicherheitstechnischen Gründen nicht kommentieren. Aldi
hingegen verneint auf Anfrage, dass der Einsatz
KI-basierter Videoüberwachung in ihren Filialen geplant
sei.
Zudem wollte 20 Minuten
wissen, ob Ladendiebstähle langfristig Auswirkungen auf
die Preisgestaltung haben. Coop erklärt, dass
Warenverluste grundsätzlich Kosten verursachen, die in
die Gesamtkosten des Unternehmens einfliessen. Migros
betont hingegen, dass Ladendiebstähle derzeit keinen
Einfluss auf die Preise haben.
KI überwacht – am Ende
entscheidet ein Mensch
Das
System analysiere ganz einfach die Videoaufnahmen der
bereits vorhandenen Ladenkameras. Die Technologie erkenne
dann, wenn beispielsweise Waren in private Taschen gesteckt
oder Artikel am Self-Checkout nicht gescannt würden.
Registriere die KI einen verdächtigen Vorgang, werde ein
Alarm an den Filialleiter gesendet. «So kann sofort reagiert
werden – die endgültige Entscheidung, ob es sich tatsächlich
um Ladendiebstahl handelt, trifft aber immer ein Mensch»,
betont Garcia.
Diese Arten von
Diebstahl erkennt die KI:
Wenn Kundinnen und Kunden Waren in Handtaschen
oder Rucksäcke stecken
Wenn an Self-Checkouts nicht alle Artikel gescannt
werden
Wenn Personen mit Waren durch den Eingang statt
durch den Ausgang gehen
Wenn viele hochwertige Produkte in kurzer Zeit aus
den Regalen genommen werden
Laut
Garcia lassen sich mit der Technologie Verluste durch
Diebstähle im überwachten Bereich um über 70 Prozent
reduzieren. «In einem margenschwachen Umfeld kann das den
Unterschied zwischen Gewinn und Verlust ausmachen.»
Gerade bei Kosmetik oder Alkohol wird laut
Garcia gern geklaut.IMAGO/C3 Pictures
«KI schaut weder auf Hautfarbe
noch Geschlecht»
Bei der
Entwicklung sei es ihm und seinem Team besonders wichtig
gewesen, Vorurteile zu vermeiden: «Die Technologie schaut
weder auf die Hautfarbe noch auf das Geschlecht. Sie ordnet
lediglich Waren Personen zu», sagt Garcia. Auch der
Datenschutz habe hohe Priorität: «Es werden keine
Kundendaten gespeichert. Zudem ist die Technologie direkt
beim Händler installiert.»
Aktuell wird die KI in mehreren Schweizer Filialen getestet.
Verbesserungspotenzial sieht der Entwickler an
unterschiedlichen Stellen: «Ziel ist es, den Energieverbrauch
weiter zu senken und die KI so zu trainieren, dass sie noch
andere Arten von Diebstählen, aber auch Gewalt oder Missbrauch
unter Kunden oder Angestellten erkennen kann.» Garcia führt
nach eigenen Angaben Gespräche mit den meisten grossen
Schweizer Detailhändlern. Ziel sei es jedoch, mithilfe der KI
bald Ladendieben in ganz Europa den Kampf anzusagen.
Die Maschine ist die neue Beratung in der
Schweiz am 27.3.2026: Der Roboter-Kundenberater am Eingang
mit KI - jüdisches Warenhaus Loeb in Bern: Loeb, Bern: KI-Avatar statt Verkäufer? «Emilia» sorgt in
Bern für Aufsehen
https://www.20min.ch/story/loeb-bern-ki-avatar-statt-verkaeufer-emilia-sorgt-in-bern-fuer-aufsehen-103534424
Im Berner Loeb-Warenhaus berät neu der
KI-Avatar Emilia die Kundschaft.
Sie beantwortet Fragen zu Produkten,
Standorten und gibt Modetipps.
Emilia ist mit ChatGPT verbunden und soll
das Einkaufserlebnis verbessern.
Der Avatar ergänzt das Personal. Eine
vollständige Automatisierung ist nicht geplant.
Flurin Pestalozzi -- Im Berner Warenhaus Loeb beantwortet
ein KI-Avatar Fragen, gibt Modetipps und hilft bei der
Orientierung im Haus. Das Hologramm dient als Ergänzung zur
persönlichen Beratung.
Im Loeb in Bern steht neu der KI-Avatar Emilia in der
Kleiderabteilung und beantwortet Fragen von Kundinnen und
Kunden über ein Mikrofon. Emilia gibt Auskunft darüber, wo
sich Produkte befinden, und liefert auf Wunsch auch Modetipps.
Auf die Frage, ob künftig Roboter menschliche Mitarbeitende
ersetzen, sagt Emilia selbst: «Die Technologie unterstützt das
Team. Die Technik soll das Erlebnis verbessern, nicht den
Menschen verdrängen.» Emilia ist mit ChatGPT verbunden und
greift auf Daten zum Sortiment sowie zu Informationen des
Warenhauses zu.
«Ein Roboter kann uns nicht ersetzen»
Loeb-Mitarbeiterin Jasmine (25) sieht die Entwicklung
gelassen: «So ein Roboter kann uns nicht ersetzen, er kann ja
die Leute nicht bedienen. Auch das Zwischenmenschliche wird er
nie so wie wir hinkriegen.» Die persönliche Beratung bleibe
zentral, gerade bei Mode, wo direkte Kommunikation wichtig
sei.
Bei den jungen Besuchern des Warenhauses stösst das Konzept
auf gemischte Reaktionen. Joël (15) und Robin (15) würden den
Avatar vor allem dann nutzen, wenn gerade kein Personal
verfügbar ist. «Wenn alle menschlichen Arbeiter besetzt wären,
würde ich zu diesem Hologramm gehen.» Gleichzeitig betonen
sie: «Ich werde schon noch lieber von einem Menschen bedient
beim Shoppen.» Die Idee an sich finden sie jedoch gut.
Technisches Gadget und Unterhaltung zugleich
Emilia beantwortet auch allgemeine Fragen, etwa zu
Sehenswürdigkeiten in Bern oder zum aktuellen Stand der Spiele
von YB oder SCB. «Ziel ist es, den Aufenthalt im Warenhaus
informativer und unterhaltsamer zu gestalten», sagt Martin
Stucki, Chief Digital Officer von Loeb, zu 20 Minuten.
Die Inspiration stamme von einer Messe in New York, so Martin
Stucki. Emilia sei sowohl ein technisches Gadget als auch ein
Element zur Unterhaltung. «Viele Leute sind überrascht, dass
schlaue und gute Antworten kommen.»
Keine vollständige Digitalisierung geplant
Entscheidend sei, dass die persönliche Beratung nicht ersetzt
wird. «Wir wollen, dass die Kunden weiterhin von Menschen
bedient werden», sagt Stucki. Auch langfristig sei keine
vollständige Automatisierung des Verkaufs geplant.
Potenzial für den Einsatz von Robotern sieht er eher in
unterstützenden Bereichen wie der Reinigung. So könnten
künftig etwa Putzroboter eingesetzt werden. Grundsätzlich
bleibt der Einsatz von Robotik im Warenhaus möglich, doch die
menschliche Beratung soll weiterhin den Unterschied zum
Online-Handel ausmachen.
Benedikt Hollenstein -- Das Softwareunternehmen hat eine
globale Entlassungswelle gestartet. Wie viele Personen
schlussendlich genau betroffen sind, ist unklar. Informiert
werden die Angestellten per Mail.
Oracle streicht Zehntausende Stellen weltweit.
Bis zu 18 Prozent der Belegschaft sind betroffen. Dies sind
20'000 bis 30'000 Arbeitsplätze.
Der Stellenabbau betrifft diverse Bereiche. Er ist Teil einer
Entlassungswelle in der Techbranche.
«Wir müssen Ihnen leider eine schwierige Nachricht bezüglich
Ihrer Stelle mitteilen» – diese Nachricht fanden diese Woche
Zehntausende Angestellte des Cloud- und Softwareunternehmens
Oracle in ihrem E-Mail-Postfach.
Wie der «Business Insider» berichtet, hat das Unternehmen von
Larry Ellison seit Dienstag unzählige Kündigungen
ausgesprochen, betroffen sind Angestellte auf der ganzen Welt.
Die Streichung der Stellen sei «nach sorgfältiger Abwägung der
aktuellen geschäftlichen Erfordernisse von Oracle» erfolgt,
zitiert die Zeitung die interne Mail. «Deshalb ist heute Ihr
letzter Arbeitstag.» Betroffene erhalten eine Abfindung.
Bis zu 18 Prozent der Belegschaft müssen gehen
Betroffen sein könnten laut chip.de zwischen 20'000 und 30'000
Arbeitsplätze bei Oracle – das entspricht bis zu 18 Prozent
der gesamten Belegschaft von weltweit 162'000 Angestellten. In
der Schweiz arbeiten etwa 170 Personen für Oracle. Ob und wie
viele von ihnen von den Kündigungen betroffen sind, ist
unklar. Laut einem Linkedin-Post betrifft der Kahlschlag
diverse Bereiche, darunter die Gesundheits-, die Verkaufs-,
aber auch die Kundenberatungs- und die Cloudsparte des
Software-Unternehmens.
Der Oracle-Stellenabbau ist der neuste in einer Reihe von
massiven Kündigungswellen in der Techbranche: Amazon hatte im
Januar angekündigt, etwa 16'000 Stellen abzubauen, kurz zuvor
wurde bereits 14'000 Personen gekündigt. Auch bei Meta kam es
in den letzten Jahren zu grösseren Kündigungswellen.
Irankrieg am 2.4.2026 - 20:02h:
Killer-"USA"+Killer-Israel betreiben den Irankrieg mit KI
von Palantir gegen die GESAMTE Bevölkerung - wie im
Gazastreifen+im Libanon
Die pensionierte US-Luftwaffenoffizierin Karen Kwiatkowski
sagt, dass eine Sache, die Trump in seiner Rede nicht
erwähnte, war, dass die USA und Israel mit Hilfe der KI von
Palantir zivile Stätten im Iran ins Visier nehmen, auf die
gleiche Weise, wie sie in Gaza und im Libanon ins Visier
genommen wurden.
ENGL orig.:
Retired U.S. Air Force officer Karen Kwiatkowski says one
thing Trump didn't mention in his speech was that the US and
Israel, with the help of Palantir's AI, are targeting civilian
sites in Iran, in the same way they were targeted in Gaza and
Lebanon.
2.4.2026: Killer-"USA"+Killer-Israel benutzen
KI zur Zerstörung ganzer Staaten: Gazastreifen-KZ, Libanon,
Iran
Eine Nachricht ging im Kriegsnebel unter: Die
iranische Revolutionsgarde zerstörte insgesamt drei
Amazon-Rechenzentren in Dubai und Bahrain.
Warum Amazon? Amazon ist nicht nur der größte
Onlinehändler, sondern mit Amazon Web Services auch
einer der größten Anbieter von Cloud-Infrastruktur.
Neben AWS dominieren Microsoft Azure und Google Cloud
diesen Markt.
Clouds sind riesige Rechenzentren mit enormer
Speicherkapazität und Rechenleistung. Sie können
sowohl zivile als auch militärische Zwecke erfüllen.
Sie wickeln Finanztransaktionen ab, planen
Großprojekte – und können auch zur Überwachung und
Kontrolle von Bevölkerungen eingesetzt werden.
Vor allem militärisch fortgeschrittene Staaten
dominieren diesen Markt. Genau deshalb wurden die
Rechenzentren zu Zielen.
In diesen Systemen wird der Krieg zunehmend
automatisiert. Künstliche Intelligenz identifiziert
Ziele und trifft Entscheidungen.
So wurde ein Stadtpark in Teheran bombardiert –
ausgelöst durch eine algorithmische Fehlinterpretation
des Namens.
Die aktuelle Gewalt folgt einem Muster, das zuvor im
Gazastreifen getestet wurde. Die Operation trägt den
Namen „Project Nimbus“ – eine Zusammenarbeit zwischen
Amazon, israelischen Behörden und Rüstungsfirmen.
Diese Technologie ermöglicht umfassende Überwachung
und gezielte Angriffe.
Mitarbeiter von Amazon und Microsoft hatten bereits
2021 in einem offenen Brief vor genau dieser
Entwicklung gewarnt.
Doch diese Warnungen gingen im öffentlichen Lärm
unter.
Militarisierung der Technologie
Die Grenze zwischen ziviler Cloud und militärischer
Nutzung ist inzwischen nahezu verschwunden.
Militärische Systeme laufen auf derselben
Infrastruktur wie Banken oder Apps.
Das US-Militär nutzt KI-Systeme für Zielerfassung,
Analyse und Simulationen – auch in aktuellen
Konflikten.
Kurz gesagt: Das Militär nutzt und finanziert die
gleiche Infrastruktur, die auch den Alltag bestimmt.
Militarisierung frisst zunehmend ziviles Leben auf.
Die Iraner stehen bereits in einem existenziellen
Kampf gegen diese Entwicklung.
Indem sie die finanziellen Grundlagen dieser
Technologie angreifen, kämpfen sie nach dieser
Darstellung auch für ihre eigene Freiheit.
Der Konflikt wird damit zu mehr als einem regionalen
Krieg.
Er wird zu einem Kampf um Kontrolle über Technologie,
Wirtschaft und Gesellschaft.