KI Grenzen Künstliche Intelligenz

KI braucht Grenzen, bevor sie uns Grenzen setzt

Fabian Peters
Bild: Mit ChatGPT generiert (KI).

Künstliche Intelligenz durchdringt zunehmend unseren Alltag. Die technologischen Fortschritte sind zwar durchaus beeindruckend, werfen aber drängende ethische Fragen auf. KI braucht deshalb Grenzen, bevor sie uns Grenzen setzt. Ein Kommentar. 

Ob als Suchmaschine, Übersetzer oder bei der Text- und Bildgenerierung: Immer mehr Menschen nutzen KI-Tools auf der Arbeit oder im Alltag. Doch trotz teilweise beeindruckender Fähigkeiten sollte dir stets bewusst sein, dass Künstliche Intelligenz nicht fehlerfrei ist. Denn: KI kann halluzinieren, was unmittelbar mit ihrer Funktionsweise zusammenhängt.

KI-Systeme sind außerdem nur so gut wie die Daten, mit denen sie trainiert werden. Diese stammen beispielsweise aus dem Internet, Büchern oder wissenschaftlichen Artikeln. Einige dieser Daten können jedoch veraltet, unvollständig oder falsch sein. Bedeutet: Eine KI kann sich grundsätzlich unkorrekte Informationen aneignen und diese auch wiedergeben. Zudem fehlt KI die Fähigkeit zu Empathie und moralisches Urteilsvermögen.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Die dunkle Seite der KI: Warum Grenzen unerlässlich sind

Was derzeit rund um KI geschieht, erinnert stark an die Frühphase des Internets. Euphorie dominiert und Risiken werden ausgeblendet oder heruntergespielt. Große Tech-Konzerne preisen KI als Allheilmittel an – für Bildung, Wirtschaft, Klima und Gesundheit. Viele dieser Versprechen klingen verlockend.

Doch hinter der vermeintlich glänzenden Fassade verbergen sich reale Gefahren: Diskriminierung durch fehlerhafte Datensätze, eine unkontrollierte Machtkonzentration bei einzelnen Unternehmen, Deepfakes, Massenüberwachung, Arbeitsplatzverluste und politische Manipulation.

Über all dem schwebt ein möglicher Kontrollverlust, wenn wir KI-Systeme selbst nicht mehr vollständig durchdringen können. Der Mythos, dass KI objektiv sei, hält sich zwar hartnäckig. Doch Algorithmen werden stets von Menschen programmiert – teilweise mit bestimmten Zielen, Daten und Perspektiven.

Die Auswahl der Trainingsdaten entscheidet etwa darüber, wie ein KI-Modell funktioniert – und auch antwortet. Wer eine KI programmiert, entscheidet also auch, welche Maßstäbe sie heranzieht und was für eine Realität sie abbildet.

Ohne klare ethische und demokratische Leitplanken droht eine Entwicklung, bei der sich gesellschaftliche Ungleichheiten nicht nur reproduzieren, sondern automatisieren. Wer etwa bei Bewerbungen durch ein fehlerhaftes KI-System aussortiert wird, bekommt womöglich nicht einmal mit, dass die Entscheidung nicht von einem Menschen, sondern von einem Algorithmus gefällt wurde.

Regulierung ist kein Innovationsfeind

Die Tech-Branche warnt gerne davor, dass übermäßige Regulierung Innovationen ausbremsen würde. Aber das Gegenteil ist der Fall: Regeln schaffen Vertrauen, fördern Transparenz und setzen Standards, an denen sich gute Technologie und auch KI-Systeme messen lassen können. Genau deshalb war der AI Act der EU ein überfälliger Schritt – auch wenn er nicht perfekt ist und längst nicht alle Probleme löst.

Doch Regulierung darf nicht nur in Brüssel gemacht werden. Es braucht zusätzlich Aufklärung in Schulen, digitale Kompetenz in Behörden, technische Mindeststandards in Unternehmen – und nicht zuletzt kritische Medien, die die Entwicklungen begleiten. Dinge, die bereits bei Social Media versäumt wurden.

KI ist letztlich keine rein technische, sondern vor allem eine gesellschaftliche Frage: Wie wollen wir als demokratische Gesellschaft mit einer Technologie umgehen, die potenziell unser Leben, unsere Meinungen und unsere Rechte beeinflusst? Es sollte dabei zweifellos nicht um Verbote gehen, sondern um Gestaltung. Um kluge Grenzen, damit Technologie dem Menschen dient – und nicht umgekehrt.

Hinweis: Bei diesem Artikel handelt es sich um einen Kommentar. Das ist eine journalistische Darstellungsform, die explizit die Meinung des Autors und nicht des gesamten Magazins widerspiegelt. Der Kommentar erhebt keinen Anspruch auf Sachlichkeit, sondern soll die Meinungsbildung anregen und ist als Meinungsbeitrag durch Artikel 5 des Grundgesetzes geschützt.

Auch interessant: 

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
Sales Manager B2B für Stellenanzeigen und Soc...
Recruiting Excellence GmbH in Düsseldorf
(Junior) Social Media Manager*in (m/w/d) – Be...
Digital Vision Academy in Berlin
Performance Marketing Lead (m/w/d) – Pa...
NILO HAMBURG Inh. Niclas Tretschock in Meerbusch
Teile diesen Artikel
Chefredakteur
Folgen:
Fabian Peters ist seit Januar 2022 Chefredakteur von BASIC thinking. Zuvor war er als Redakteur und freier Autor tätig. Er studierte Germanistik & Politikwissenschaft an der Universität Kassel (Bachelor) und Medienwissenschaften an der Humboldt-Universität zu Berlin (Master).