Im Jahr 2025 sind Künstliche Intelligenzen, insbesondere generative Modelle, allgegenwärtig. Sie durchdringen zahlreiche Lebensbereiche, von der automatischen Texterstellung bis zu komplexen Datenanalysen. Doch trotz dieser rasanten Verbreitung gibt es Menschen, die bewusst darauf verzichten, solche Technologien zu nutzen. Ein solcher bewusster Verzicht ist lohnenswert zu beleuchten, da er zeigt, dass technologische Innovationen nicht immer uneingeschränkt positiv bewertet werden. Eine Person, die sich explizit gegen die Nutzung von generativer KI ausgesprochen hat, ist Tom Brandis.
Er teilt nicht nur seine persönliche Haltung, sondern bringt nachvollziehbare Gründe vor, die sowohl technischer als auch ethischer Natur sind. Sein Standpunkt bietet eine wertvolle Perspektive in einer Zeit, in der die Akzeptanz von KI vielfach unreflektiert ist. Eines der größten Argumente gegen den Einsatz von generativer KI ist ihr enormer Energieverbrauch. Das Bewusstsein für Umweltschutz und nachhaltige Technik wächst stetig, ebenso die Sorge um die Klimafolgen unseres digitalen Handelns. Berichte legen nahe, dass KI-gestützte Suchvorgänge bis zu 33-mal mehr Energie benötigen als herkömmliche Suchanfragen.
Diese Zahlen wirken zunächst abstrakt, zeigen jedoch das erhebliche Energieproblem, das mit großer Rechenleistung und serverseitigen Prozessen verbunden ist. Für jemanden, der bereits einen eigenen Heimserver betreibt, kann sich der zusätzliche Verbrauch durch KI-Nutzung erheblich auf die Umweltbilanz niederschlagen. Der Wunsch, Energie effizient einzusetzen und den ökologischen Fußabdruck zu minimieren, ist in diesem Zusammenhang nachvollziehbar. Zudem macht ein Erfahrungsbericht eines Technikenthusiasten deutlich, wie ineffizient viele KI-Anwendungen noch sein können. Das Ausführen eines KI-Modells lokal auf einem Laptop dauerte dort beispielsweise über zehn Minuten pro Anfrage, was für den alltäglichen Gebrauch weder praktikabel noch ressourcenschonend ist.
Neben dem Energieaspekt ist die Zuverlässigkeit von KI-Systemen ein weiterer entscheidender Punkt. Obwohl Modelle in den letzten Jahren enorm verbessert wurden, sind Fehler, sogenannte Halluzinationen, weiterhin ein fundamentales Problem. KI erzeugt häufig inhaltsvoll erscheinende, aber faktisch falsche Informationen. Beispiele reichen von erfundenen Gerichtsfällen bis hin zu wissenschaftlich unkorrekten Angaben, wie falschen Zuschreibungen von astronomischen Entdeckungen. Das erschwert eine vertrauenswürdige Nutzung im öffentlichen Diskurs erheblich.
Wer Texte allgemein zugänglich veröffentlicht, trägt Verantwortung, korrekte Fakten wiederzugeben. Das manuelle Prüfen von KI-erstellten Inhalten wird schnell zur Fehlerquelle, da manche Ungenauigkeiten gut getarnt und schwer erkennbar sind. Für Autorinnen und Autoren ist das ein großes Risiko, denn trotz aller Sorgfalt kann der Einsatz von KI die Genauigkeit von Texten beeinträchtigen. Auch ethische Fragestellungen spielen in der Entscheidung gegen KI eine wichtige Rolle. Der Umgang mit urheberrechtlich geschütztem Material bleibt ein kontroverses Thema.
Viele KI-Modelle basieren auf großen Datensätzen, die Inhalte von Künstlern und Verfassern enthalten, ohne dass für diese eine direkte Erlaubnis eingeholt wird. Das Urheberrecht soll die faire Entlohnung von Kreativen sichern, doch durch KI entstehen Werke, die vielfach als abgeleitet gelten, ohne Vergütung oder Anerkennung. Dies führt zu einer komplexen Lage, die von Juristen und Politikern weiterhin diskutiert wird. Für Menschen, die Wert auf Respekt gegenüber der Arbeit anderer legen, ist der Verzicht auf KI ein bewusster Schritt gegen eine Praxis, die oft als unfair empfunden wird. Gleichzeitig gibt es Einsicht dafür, dass das Urheberrecht selbst mit seiner Regelung von sogenannten Derivaten auch nicht immer optimal für Künstler und Konsumenten ist.
Trotzdem führt diese Problematik zu einem starken moralischen Unbehagen. Abgesehen von Technik und Ethik ist auch die persönliche Freude am kreativen Prozess ein wichtiger Faktor. Das Schreiben, Programmieren oder künstlerische Gestalten stellt für viele Menschen nicht nur eine Tätigkeit, sondern ein Hobby und eine Leidenschaft dar. Die Eigenleistung bringt Spaß und Zufriedenheit, etwas, das durch das simple Abwälzen der Arbeit an Maschinen verloren gehen könnte. Gerade im Bereich der Softwareentwicklung befürchten manche, dass durch den Einsatz von KI zwar mehr Code entsteht, dieser jedoch oft instabil oder voller Fehler ist, was anschließend mehr Zeit für Fehlerbehebung verlangt.
Dies kann den Spaß an der eigentlichen Tätigkeit deutlich mindern. Ein emotionaler Aspekt, der nicht zu unterschätzen ist, betrifft den Kontext und die Akteure, die mit KI assoziiert werden. Manche Menschen verweigern den Einsatz von KI aufgrund der Verbindungen zu bestimmten Persönlichkeiten oder Unternehmen, die sie kritisch sehen. Zum Beispiel verstärken negative Erfahrungen mit kontroversen Figuren oder Unternehmenspraktiken das Gefühl, einem fragwürdigen oder intransparenten System keinen Raum geben zu wollen. Auch wenn technisch gesehen alternative Modelle existieren könnten, bleibt diese emotionale Ablehnung ein wichtiger Faktor in der Nutzungsentscheidung.
Es gilt jedoch stets die Differenzierung: Der Verzicht auf generative KI bedeutet nicht, Technologie grundsätzlich abzulehnen. Manche Anwendungen, vor allem in komplexen Datenanalysen, bieten enorme Chancen. Ein prominentes Beispiel ist AlphaFold, ein KI-System, das die Struktur von Millionen Proteinen vorhersagen konnte und damit die biowissenschaftliche Forschung revolutioniert hat. Auch professionelle Entwickler nutzen KI-Tools, um ihre Arbeit zu verbessern und zu beschleunigen – wobei sie sich der potenziellen Risiken bewusst sind und diese kontrollieren. Dennoch ist für Hobbyisten oder Einzelpersonen, die ihre Inhalte verantwortungsvoll gestalten wollen, eine kritische Haltung gegenüber KI sehr verständlich und legitim.
Die Entscheidung, ob man KI verwendet oder nicht, sollte gut überlegt sein. Sie hängt von individuellen Prioritäten ab, etwa dem Anliegen der Umweltfreundlichkeit, den ethischen Überlegungen, der eigenen Motivation und der Einschätzung der tatsächlichen Nutzen-Risiko-Abwägung. KI ist kein Universalwerkzeug und ersetzt weder menschliche Kreativität noch Gründlichkeit. Vielmehr kann sie als ergänzendes Instrument gesehen werden, das vorsichtig und reflektiert eingesetzt werden sollte. Für manche Menschen ist das bewusste Verzichten sogar der bessere Weg, um Qualität, Integrität und persönliche Zufriedenheit in ihrer Arbeit zu bewahren.
Letztlich zeigen individuelle Erfahrungen und Ansichten wie die von Tom Brandis, dass technologische Trends nicht blind gefolgt werden müssen. Die Gründe, 2025 auf KI zu verzichten, sind vielschichtig und legitim. Sie fordern eine offene Diskussion über Nachhaltigkeit, Verlässlichkeit, Recht und Ethik im digitalen Zeitalter. Das Bewusstsein für die Konsequenzen der eigenen Technologieentscheidungen ist ein wichtiger Schritt zu verantwortungsvollem Umgang und zu einer Kultur, die Mensch und Umwelt gleichermaßen respektiert.