Bitcoin Rechtliche Nachrichten

Warum ein erfahrener Anwender Generative LLMs eher selten nutzt: Ein Blick hinter die Kulissen

Bitcoin Rechtliche Nachrichten
As an experienced LLM user, I don't use generative LLMs often

Erfahrene Anwender großer Sprachmodelle (LLMs) zeigen, dass der Umgang mit generativen Modellen differenzierter ist als oft angenommen. Der Fokus liegt auf gezieltem, effektivem Einsatz abseits des Hypes – von professionellem Code-Support bis zu maßgeschneiderten Problemstellungen im Unternehmensalltag.

Große Sprachmodelle, insbesondere generative Large Language Models (LLMs), haben in den letzten Jahren enorme Aufmerksamkeit erlangt. Sie gelten für viele als revolutionäre Werkzeuge, die das Schreiben von Texten, das Programmieren oder sogar die kreative Arbeit auf ein neues Level heben. Doch wie nutzt ein erfahrener Anwender, der sich seit vielen Jahren mit dieser Technologie beschäftigt, solche Modelle tatsächlich? Entgegen populärer Vorstellungen ist der Einsatz oft deutlich begrenzter und gezielter als man vermuten würde. Max Woolf, Senior Data Scientist bei BuzzFeed und langjähriger LLM-Nutzer, teilt seine Einsichten und zeigt, warum er generative Sprachmodelle nicht so häufig verwendet, wie der Hype es nahelegt, und wie sich sein Umgang davon unterscheidet. Generative LLMs sind oft der Mittelpunkt der Aufmerksamkeit, doch in der Nutzung gibt es wichtige Unterschiede.

Woolf erklärt, dass die große Mehrheit seiner Arbeiten nicht automatisch durch generative KI erledigt wird. Stattdessen setzt er Modelle gezielt für Probleme ein, für die sie echte Vorteile bieten, etwa bei der automatisierten Kategorisierung von Texten oder bei der Programmierung mit spezifischen Anforderungen. Unter dem Aspekt der Effektivität und Kontrolle bevorzugt er den direkten Zugriff auf API-Schnittstellen anstelle komfortabler, aber eingeschränkter Benutzeroberflächen wie die auf ChatGPT.com. Durch Einstellungen wie das Festlegen von System-Prompts und das Regulieren der sogenannten Temperatur steuert er die Ergebnisse sehr präzise.

Diese Herangehensweise verhindert unerwünschte Ausflüge ins Absurde, die häufig bei höherer Kreativität von LLMs auftreten. Ein zentraler Bestandteil von Woolfs Strategie ist das sogenannte Prompt Engineering – das bewusste Formulieren von Eingaben, damit die Modelle bestmöglich auf die Aufgabe reagieren. Trotz aller Kritik sieht er darin eine notwendige und effektive Technik, um mit den bisher verfügbaren LLMs mehr Kontrolle über die erzeugten Inhalte zu erlangen. Überraschend ist, dass er den Zugang über gängige Frontends meidet, da sie oft weniger Spielraum für Anpassungen lassen und das Resultat stark vom dahinterliegenden System-Prompt geprägt ist, der wiederum nicht einsehbar oder manipulierbar ist. Stattdessen bevorzugt er Dienste wie Anthropics Claude Sonnet, der seinen Erfahrungen nach weniger klischeehaft und roboterhaft wirkt und vor allem auch bei komplexeren Programmierfragen eine bessere Leistung erbringt.

Gleichzeitig bleibt er gegenüber den Modellen kritisch, denn trotz aller Fortschritte sind Halluzinationen, also die Erzeugung nicht realer oder falscher Informationen, ein ständiges Problem. Während generative Modelle ihn bei der Texterstellung in seinem Blog kaum unterstützen – seine persönliche und eigene Schreibweise lässt sich nur schwer nachahmen und zudem sieht er ethische Grenzen bei der Nutzung durch KI generierter Texte – nutzt er LLMs ganz bewusst als Werkzeuge für bestimmte berufliche Herausforderungen. Zum Beispiel lassen sich damit Artikel automatisch in eine neu entwickelte Taxonomie einordnen, wenn keine annotierten Datensätze für das klassische maschinelle Lernen zur Verfügung stehen. Auch die automatisierte Erzeugung von Clustertiteln für große Artikelmengen oder das Prüfen der Einhaltung des firmeninternen Styleguides für Textstellen sind praktische Anwendungsbeispiele. Diese Aufgaben sind mit generativen LLMs oft schneller und effizienter zu lösen als mit traditionellen Methoden.

Ein besonders faszinierender Einsatzbereich spielt sich außerhalb der reinen Textgenerierung ab: Text-Embeddings. Woolf betont die Bedeutung dieser Einbettungen, die Informationen in Form von Vektor-Repräsentationen abbilden, als mächtiges Tool in der modernen Empfehlungstechnik oder bei der semantischen Ähnlichkeitssuche. Obwohl Embeddings technisch ebenfalls durch LLMs erzeugt werden, erfüllen sie die Aufgabe ganz anders als Textgeneratoren. Die pragmatische Nutzungsweise von LLMs zeigt sich auch bei der Programmierung. Woolf nutzt sie gezielt, wenn er sicher ist, dass sie den Entwicklungsprozess tatsächlich beschleunigen.

Das typische Beispiel sind reguläre Ausdrücke – eine komplexe und zeitaufwändige Aufgabe, die KI-gestützt deutlich erleichtert wird. Bei komplexeren Anforderungen wie dem Erstellen von Callback-Klassen im maschinellen Lernen verweist er auf die hohe Nützlichkeit von modellgeneriertem Code, der wertvolle Ideen einbringt, auch wenn er nicht immer fehlerfrei ist und eine Validierung erfordert. Trotz der Möglichkeiten bleibt der Umgang kritisch und zurückhaltend. Coding-Assistenten, die ständig Vorschläge einblenden, wie GitHub Copilot, bewirken bei ihm eher Ablenkung als Produktivitätssteigerung, da sie einen ständigen Kontextwechsel erzwingen – von Schreiben zu Bewerten –, was den Flow empfindlich stört. Neue Konzepte wie Agenten oder Multi-Tool-Controller (MCP) werden von Woolf zwar als technisch gelungen beschrieben, doch auf praktischer Ebene sieht er darin keinen Durchbruch in der Anwendbarkeit.

Sie machen Workflows zwar komplexer und sind für ihn wenig überzeugend, da sich keine neuen Anwendungsfälle eröffneten. Auch so genannter „Vibe Coding“ mit Coding Agents, die selbstständig Programmieraufgaben übernehmen sollen, sieht er kritisch. Die Gefahr, durch Experimentieren hohe Kosten zu verursachen oder minderwertigen Code zu produzieren, steht seiner Meinung nach in keinem Verhältnis zum Nutzen. Anders als manche Enthusiasten bevorzugt er kontrollierte und verlässliche Methoden gegenüber dem spielerischen Umgang mit automatischer Codeerzeugung. LLMs sind für ihn Werkzeuge mit klaren Grenzen.

Für den Alltag eines erfahrenen Datenwissenschaftlers und Softwareentwicklers sind sie ein nützliches Hilfsmittel, jedoch kein Allheilmittel. Dabei kombiniert er moderne Entwicklungen mit bewährten Techniken, die in seiner Arbeit über Jahre gewachsen sind. Seine grundsätzliche Stellungnahme verdeutlicht, dass LLMs weder überbewertet noch vollständig abgetan werden dürfen. Sie finden in spezifischen Situationen sinnvolle Anwendung und erhöhen die Effizienz, dennoch bleiben sie fehleranfällig und erfordern vom Nutzer Sachverstand und kritische Kontrolle. Das Spannungsfeld zwischen überzogenen Erwartungen im Medienrummel und der nüchternen Praxis zeigt sich besonders deutlich in der ethischen Reflexion seiner eigenen Nutzung.

Woolf verzichtet bewusst auf die Verwendung generativer Modelle zur Erstellung von Inhalten, die als seine eigenen ausgegeben werden könnten. Diese Haltung beruht auf einem verantwortungsvollen Umgang, Authentizität und dem Wunsch, die eigene Handschrift zu wahren. Indem er das Modell lediglich als Sparringspartner für Kritik oder zur Verbesserung von Argumenten nutzt, schafft er dennoch einen Mehrwert, ohne die Grenzen der Urheberschaft zu überschreiten. Im gesellschaftlichen Diskurs um Künstliche Intelligenz führen solche differenzierten Perspektiven zu einem wichtigeren Verständnis. Die Technologie ist kein Allheilmittel, aber auch kein nutzloses Spielzeug.

Sie verlangt, ähnlich wie andere Werkzeuge, das richtige Maß an Anwendung und Aufmerksamkeit. Für die Zukunft prognostiziert Woolf, dass die Rolle von LLMs als Teil der technischen Werkzeugkette in Unternehmen und Wissenschaft sicherlich weiter zunehmen wird, jedoch werden kritische Nutzer stets ihre Grenzen im Blick behalten und verantwortungsbewusst damit umgehen. Dabei könnten Open Source Modelle eine wichtige Rolle spielen, falls große kommerzielle Anbieter aus dem Markt verschwinden sollten. Letztlich erinnert der erfahrene Anwender daran, dass das schnelle Fortschreiten der KI-Entwicklung nicht automatisch zu einem uneingeschränkten Alltagsgebrauch führt. Vielmehr gilt es zwischen Effizienzsteigerung und Qualitätsanspruch zu balancieren.

Der alltägliche Gebrauch von LLMs zeigt, dass sie vor allem dann glänzen, wenn sie als Ergänzung zu Fachwissen und menschlicher Expertise eingesetzt werden. Und gerade diese Nuancierung macht das Thema für viele Nutzer spannender, als reiner Hype es vermuten lässt. Es ist weniger die Häufigkeit der Nutzung, die den Mehrwert ausmacht, sondern die gezielte, sorgfältig geplante Einbindung in konkrete Arbeitsabläufe. So gesehen sind LLMs für Experten wie Max Woolf wertvolle Werkzeuge, die bei passender Anwendung erheblichen Nutzen stiften können, ohne den Anspruch zu erheben, sich in allen Lebenslagen durchsetzen zu müssen.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
Goodbye, Skype
Donnerstag, 05. Juni 2025. Abschied von Skype: Ein Blick auf das Ende einer Kommunikations-Ära

Ein umfassender Rückblick auf die Geschichte von Skype, seine Bedeutung im digitalen Zeitalter und die Gründe für das baldige Ende des beliebten Kommunikationsdienstes, während Microsoft den Fokus auf Teams verlagert.

Kenco adds 4 warehouses in Canada as part of 3PL acquisition
Donnerstag, 05. Juni 2025. Kenco stärkt Präsenz in Kanada mit Übernahme von vier neuen Lagerhäusern durch Drexel 3PL-Integration

Die strategische Erweiterung von Kenco durch die Akquisition der 3PL-Sparte von Drexel Industries in Ontario ermöglicht dem Unternehmen eine bedeutende Expansion auf dem kanadischen Markt und bietet umfassende Vorteile für Kunden durch verbesserte Logistik- und Verpackungslösungen.

Best travel credit cards for 2025: Get free trips, earn flexible rewards, and enjoy generous travel benefits
Donnerstag, 05. Juni 2025. Die besten Reisekreditkarten für 2025: Kostenlose Reisen, flexible Prämien und großzügige Reisevorteile sichern

Ein umfassender Überblick über die besten Reisekreditkarten für 2025, die Ihnen dabei helfen können, kostenlose Reisen zu genießen, flexible Prämien zu sammeln und attraktive Reisevorteile zu nutzen, passend für unterschiedlichste Reisetypen und Budgets.

A Tor/ProxyChains indicator for your terminal
Donnerstag, 05. Juni 2025. Tor und ProxyChains im Terminal: Ein unverzichtbarer Indikator für mehr Sicherheit und Kontrolle

Entdecken Sie, wie ein Tor und ProxyChains Indikator in Ihrem Terminal Ihnen nicht nur perfekte Übersicht über Ihre Verbindungen bietet, sondern auch Ihre Privatsphäre und Cyber-Sicherheit optimiert. Erfahren Sie, wie Sie mit Powerlevel10k und einem speziell entwickelten Modul jederzeit den Status Ihrer anonymen Netzwerkverbindungen im Blick behalten können.

The Code Element
Donnerstag, 05. Juni 2025. Das Code-Element: Ein Einblick in die Meta-Welt von Markdown und HTML

Eine umfassende Betrachtung des Code-Elements, seiner Bedeutung im Web, und die komplexe Beziehung zwischen Markdown, Markup und HTML sowie deren Anwendung in der modernen Webentwicklung.

Heart Disease Deaths Worldwide Linked to Chemical Widely Used in Plastics
Donnerstag, 05. Juni 2025. Globale Herzkrankheits-Todesfälle in Zusammenhang mit Kunststoffchemikalie DEHP

Weltweit sterben jährlich Hunderttausende Menschen an Herzkrankheiten, die mit der Exposition gegenüber der in Kunststoffen weit verbreiteten Chemikalie DEHP verbunden sind. Die gesundheitlichen Risiken dieser Phthalate sind insbesondere in Regionen mit schneller Industrialisierung besorgniserregend hoch.

Show HN: AutoSREAgent, a simple SRE Agent to go over your log files
Donnerstag, 05. Juni 2025. AutoSREAgent: Die Revolution bei der automatisierten Überwachung von Logdateien für Site Reliability Engineering

AutoSREAgent ist ein innovatives Tool zur automatischen Überwachung von Anwendungslogs, das Fehlererkennung und Incident-Management durch die Integration von Jira-Tickets deutlich vereinfacht. Erfahren Sie, wie dieses intelligente System SRE-Teams entlastet und die Zuverlässigkeit von Anwendungen optimiert.