Im Jahr 2025 hat sich die Künstliche Intelligenz – insbesondere generative KI – zu einem dominierenden Thema in der Arbeitswelt entwickelt, vor allem in der Programmierbranche. Immer mehr Entwickler fühlen sich gedrängt, KI-gestützte Werkzeuge in ihren Arbeitsalltag zu integrieren. Manche sind sogar dazu verpflichtet worden. Doch gleichzeitig steigt die Angst, durch diese Technologie ersetzt zu werden. Es ist eine berechtigte Frage: War nicht schon längst der Punkt gekommen, an dem der Mensch im Softwareentwicklungsprozess überflüssig wird? Trotz des Drucks und der allgegenwärtigen Verlockungen habe ich mich entschieden, auf den Einsatz von KI in meiner Arbeit zu verzichten.
Diese Entscheidung basiert auf einer Reihe von moralischen, ethischen, produktiven und ökologischen Überlegungen, die ich hier ausführlich darlegen möchte. Dabei soll dieser Text keinen Streit mit KI-Nutzern entfachen, sondern einen nachvollziehbaren Einblick in die Beweggründe bieten, die zu einem bewussten Verzicht führen können. Die Arbeitskraft als wertvolle Ressource Als Programmierer bin ich – wie viele andere – ein Teil der arbeitenden Bevölkerung. Meine Arbeitszeit, meine Fähigkeiten und mein Fachwissen sind die Grundlagen, auf denen mein Einkommen basiert. Anders als Kapitalanleger profitiere ich nicht direkt von den Investitionen in Maschinen oder Algorithmen, sondern durch den Verkauf meiner Arbeitskraft.
Die Vorstellung, dass kapitalstarke Unternehmen zunehmend versuchen, meine Position mit KI-Systemen zu ersetzen, ist daher eine existenzielle Bedrohung. Die Hoffnungen, dass sich beim technologischen Wandel immer neue Arbeitsfelder ergeben und betroffene Arbeiter gut absichern lassen, stellen sich in der Realität oftmals als trügerisch heraus. Ein Blick zurück zeigt uns ein Beispiel für diese Problematik: die Luddite-Bewegung in der Zeit der Industrialisierung. Diese Bewegung wird häufig auf den Akt des Zerstörens von Maschinen reduziert. Doch ihr Kern war kein bloßer Widerstand gegen Technologie, sondern ein Protest gegen soziale Missstände und die fehlende Absicherung der Arbeiter, die durch die neue Technologie verdrängt wurden.
Heute erleben wir eine ähnliche Dynamik, wenn KI-Technologien eingesetzt werden, um menschliche Arbeitskraft durch Kapital (Maschinen, Algorithmen) zu ersetzen. Die erzielten Gewinne konzentrieren sich in den Händen weniger ultrareicher Kapitalbesitzer, während die Arbeitenden weder von kürzeren Arbeitszeiten noch von zusätzlichem Einkommen profitieren. Produktivität: Kein einfaches Maß Viele Anhänger von KI-Tools verweisen auf eine gesteigerte Produktivität durch ihren Einsatz. Aber was bedeutet eigentlich Produktivität in der Softwareentwicklung? Untersuchungen zeigen, dass es schwierig ist, Produktivität objektiv zu messen. Messgrößen wie produzierte Codezeilen sind schon lange diskreditiert, können aber durch den Einsatz von KI wieder salonfähig werden – die KI generiert schließlich mehr Code, also ist man produktiver? Diese Sichtweise ist mehr als fragwürdig.
Ein Vergleich mit anderen Programmierpraktiken ist aufschlussreich: Zum Beispiel bringt der Einsatz von statisch typisierten Programmiersprachen nicht zwangsläufig eine produktivitätssteigernde Wirkung im Vergleich zu dynamischen Sprachen. Auch Testgetriebene Entwicklung wirkt nicht fehlerverhindernd, sondern eher fehlerreduzierend, ohne diese vollständig auszuschließen. In Bezug auf KI gibt es nur wenige Studien, und die Ergebnisse sind widersprüchlich. Einige Studien, in denen KI-Tools wie Github Copilot genutzt wurden, liefern zumindest Hinweise auf gesteigerte Produktivität, während andere darauf hinweisen, dass KI zusätzlich Fehlerquoten um bis zu 41 % erhöhen kann. Ein zentrales Problem bei der KI-Unterstützung ist die notwendige menschliche Kontrolle.
Code-Reviews etwa sind vor allem dazu da, dass Menschen Veränderungen verstehen und akzeptieren – sie sind kein effektives Werkzeug zur Fehlervermeidung. Wenn KI-Systeme mehr Fehler einschleusen, ist die Fähigkeit von Menschen, diese zuverlässig zu entdecken, begrenzt. Darüber hinaus kann KI sogar Fehler generieren, die von Menschen schwer als solche zu erkennen sind oder dass die plausibel wirkenden Antworten nur halluzinierte Informationen sind. Genuss am Programmieren trotz Herausforderungen Ein zentraler Grund für meinen Verzicht auf KI-Tools ist die Freude am Programmieren selbst. Programmieren ist ein Lernprozess, der mit Frustrationen und Herausforderungen verbunden ist: Kompilierungsprobleme, unerwartete Designschwächen oder fehlende Annahmen im System.
Dieses Ringen um Lösungen schärft das Verständnis und fördert Wachstum. Besonders die scheinbar langweiligen und monotonen Aufgaben haben einen unschätzbaren Wert, da sie dazu dienen, wiederkehrende Muster zu erkennen, Code sauber zu gestalten und langfristig wartbar zu machen. KI kann diese emotionale und kognitive Komplexität nicht nachvollziehen. Sie versteht nicht, welchen Code ich als verständlich oder pflegeleicht empfinde, da sie keine Vorstellung von meiner Denkweise besitzt. Damit bietet sie kaum Lernpotenzial oder persönliche Herausforderung – für mich macht das Programmieren mit KI letztlich wenig Spaß.
Ethische Bedenken rund um das Training von Künstlicher Intelligenz Ein oft übersehener Aspekt ist die Herkunft der Daten, mit denen KI-Modelle trainiert werden. Unternehmen sammeln ungefragt große Mengen an Inhalten aus dem Internet, darunter auch urheberrechtlich geschützte Werke. Das geschieht häufig ohne Einwilligung der Urheber und unter Bruch von geistigen Eigentumsrechten. Während sich diese Firmen vor möglichen juristischen Konsequenzen schützen, argumentieren sie, dass ihr Geschäftsmodell auf diesem Vorgehen fußt. Für Betreiber selbstgehosteter Webseiten oder Creator bedeutet dies eine Mehrbelastung, da deren Server durch aggressive Web-Crawler belastet werden.
Die Kosten zur Aufrechterhaltung von Online-Diensten steigen, während die eigentliche Arbeit unentgeltlich von KI-Anbietern genutzt wird. Zudem erzeugt die KI selbst oft Code, der auf fremden Quellen basiert, ohne den ursprünglichen Autoren Anerkennung oder Beteiligung zukommen zu lassen. Dieses Vorgehen stellt nicht nur eine Verletzung von Rechten dar, sondern wirft auch gravierende Fragen zur Fairness und Verantwortlichkeit auf. Umwelteinflüsse der KI-Technologie Die Entwicklung und der Betrieb von KI-Modellen haben einen erheblichen Energieverbrauch zur Folge. Das Training solcher Modelle erfordert immense Rechenressourcen, die wiederum mit hohem Stromverbrauch einhergehen.
Die Inferenz, also das Ausführen der KI-Anfragen in Echtzeit, braucht ebenfalls viel Energie. Die steigende Nachfrage führt dazu, dass insbesondere Methan- und Kohlkraftwerke hochgefahren werden, um die notwendige Energie bereitzustellen. Diese Entwicklungen belasten das Klima erheblich. Darüber hinaus benötigen die oft in wasserarmen Regionen angesiedelten Rechenzentren große Mengen Trinkwasser zur Kühlung – ein limitierender und kostbarer Rohstoff. Trotz des klaren Umweltbelastungspotenzials wird der Bau neuer Rechenzentren vorangetrieben, um die Marktnachfrage zu bedienen und Steuereinnahmen zu sichern.
Regulierungen fehlen weitgehend, sodass die großen Technologiekonzerne ungehindert wirtschaften können, ohne Rücksicht auf ökologische Konsequenzen. Die Profitabilitätsfrage der KI-Entwicklung Obwohl die KI derzeit omnipräsent ist, zeigt sich, dass ihre kommerzielle Rentabilität fraglich ist. Die besten KI-Modelle sind extrem aufwendig zu trainieren und erfordern laufend neue, noch größere Modelle, um konkurrenzfähig zu bleiben. Wer nicht selbst solche Modelle finanziert, ist quasi gezwungen, sie zu mieten. Die hohen Kosten zwingen viele Anbieter dazu, auf staatliche Förderungen und Aufträge zurückzugreifen.
Darüber hinaus liegen die Effekte auf die Produktivität von Programmierern oft im Bereich der Spekulation. Vor diesem Hintergrund wirkt eine blinde Begeisterung für KI-Tools fehl am Platz – wenig nachhaltig und nicht auf eine positive wirtschaftliche Entwicklung ausgelegt. Die Illusion der Singularität Lange wurde die Vorstellung einer unaufhaltsamen, exponentiellen Verbesserung der KI propagiert – die sogenannte Singularität. Doch erste wissenschaftliche Erkenntnisse zeigen, dass die schnelle Steigerung der Leistungsfähigkeit nicht weiter fortgesetzt werden kann. Immer mehr Rechenkapazität wird benötigt, um marginale Verbesserungen zu erzielen.
Physikalische Grenzen, thermodynamische Zwänge und technische Restriktionen setzen dieser Entwicklung Grenzen. Hinzu kommt, dass viele der Fähigkeiten aktueller KI-Systeme nicht vollständig verstanden werden. Sie basieren auf Prognosen der wahrscheinlichsten nächsten Wortfolgen, zeigen aber gelegentlich überraschende Problemlösungskompetenzen. Weil der zugrunde liegende Prozess aber kaum erklärbar oder reproduzierbar ist, kann auf dieser Basis keine zuverlässige Weiterentwicklung garantiert werden. Auf dem Weg zu besseren Programmierern Was macht uns wirklich zu besseren Programmierern? Erfahrene Computerwissenschaftler betonen die Bedeutung von klaren, präzisen und ausdrucksstarken Programmiersprachen.
Diese ermöglichen es, Anforderungen genau zu formulieren und dadurch korrigierbaren und überprüfbaren Code zu generieren. Kompiler leisten hierbei essentielle Arbeit, indem sie aus Spezifikationen automatisiert funktionierenden Code herstellen. Unser Ziel sollte es sein, weniger zu programmieren, aber qualitativ hochwertigen Code zu erzeugen. Dafür müssen wir Werkzeuge entwickeln, die unser Denken unterstützen und uns helfen, fehlerfrei zu bleiben. Die Gefahr besteht darin, dass wir durch den unkritischen Einsatz von KI die Bedeutung unserer eigenen Arbeitskraft und Kreativität untergraben.
Wissen und Verständnis entstehen durch einen mühsamen Prozess von Lernen, Ausprobieren und Reflektieren – den kann keine Maschine ersetzen. Die Zukunft der Arbeit und Regulierung von KI Es ist unabdingbar, dass gesellschaftliche und politische Akteure aktiv werden, um den Einsatz von KI zu regulieren. Es geht nicht um das Abwehren einer vermeintlichen Monster-Technologie, sondern um den Schutz kritischer Ressourcen wie Umwelt, Arbeitsplätze und wirtschaftliche Stabilität. Für Programmierer bedeutet dies, sich bewusst zu positionieren, den Fortschritt kritisch zu hinterfragen und Forderungen nach angemessenen Rahmenbedingungen zu unterstützen. Nur so können wir die Chancen nutzen und Risiken minimieren.
Wer blind auf KI-Tools setzt, ignoriert die komplexen sozialen und ethischen Dimensionen dieser Technologie. Abschließend bleibt festzuhalten, dass trotz aller Fortschritte die Künstliche Intelligenz nicht die Antwort auf alle Herausforderungen der modernen Softwareentwicklung und Wissensarbeit ist. Die menschliche Fähigkeit zum kritischen Denken, Lernen und zur bewussten Gestaltung unserer Arbeit bleibt unerlässlich. Für mich persönlich ist der Verzicht auf KI-Tools keine reine Trotzreaktion, sondern die bewusste Entscheidung für einen werteorientierten, nachhaltigen und erfüllenden Arbeitsprozess.