Token-Verkäufe (ICO)

Netflix PRS 2025: Revolutionäre Einblicke in Personalisierung, Empfehlungen und Suche

Token-Verkäufe (ICO)
2025 Netflix Personalization, Recommendations and Search Workshop (PRS)

Ein detaillierter Überblick über die neuesten Entwicklungen im Bereich der Personalisierung, Empfehlungsalgorithmen und Suchtechnologien, vorgestellt auf dem Netflix PRS Workshop 2025, mit Fokus auf große Foundation-Modelle, innovative Machine-Learning-Ansätze und praxisorientierte Anwendungen im AI-Produktentwicklungsprozess.

Der Netflix Personalization, Recommendations and Search Workshop 2025 stellte erneut eine bedeutende Plattform für wegweisende Entwicklungen im Bereich der künstlichen Intelligenz, Personalisierung und Suche dar. Seit seiner Erstveranstaltung im Jahr 2016 hat sich diese Konferenz als eines der wichtigsten Events für AI-Experten, Branchenführer und Forscher etabliert, die sich mit der dynamischen Weiterentwicklung von Nutzererfahrungen durch AI-gestützte Systeme beschäftigen. Im Zentrum der diesjährigen Veranstaltung standen vor allem die Rolle großer Foundation-Modelle (LFMs), generativer AI sowie neue Paradigmen in der Produktentwicklung und Evaluation.Ein fundamentaler Wandel der AI-Entwicklung wurde von Zachary Lipton von der Carnegie Mellon University vorgestellt. Er beschrieb den klassischen Zyklus von der Datenerfassung über Modellentwicklung und Evaluation bis hin zur Deployment-Phase als überholt.

Stattdessen habe sich ein iterativer Entwicklungsprozess etabliert, bei dem die Produktprototypen zuerst entstehen, gefolgt von deren Evaluation, einer begrenzten Einführung und erst danach einer gezielten Modellentwicklung. Dieser Wandel zeigt, dass KI heute oft das eigentliche Produkt darstellt und nicht nur eine Komponente darin. Daraus resultiert eine neue Arbeitsweise für AI-Entwickler, die zunehmend als Manager komplexer Prozesse agieren, die sich durch weniger klar definierte Evaluationskriterien und eine dynamische Modellwelt auszeichnen. Die Metapher des „Schiffes des Theseus“ verdeutlicht, wie sich Prototypen, Mindestfunktionsprodukte und endgültige Lösungen stark unterscheiden können, ohne dass ein festgelegter Erfolgspfad existiert.Ein weiterer Höhepunkt war die Präsentation von Adith Swaminathan von Netflix, der aufzeigte, wie große Foundation-Modelle genutzt werden können, um Empfehlungssysteme durch tiefere Einbindung von Weltwissen und komplexerer Nutzerfeedbackauswertung zu verbessern.

Allerdings sei der Einsatz von LFMs in ihrer Rohform nicht ausreichend. Entscheidend ist die Integration mit vorhandenen Produktkatalogen und individuellen Nutzerhistorien. Derzeit erfolgt das Tuning der Modelle und der damit verbundenen Prompt-Orchestrierungen noch händisch und ist ineffizient. Zur Optimierung wurde das Open-Source-Projekt Trace vorgestellt, das als eine Art „PyTorch für AI Workflows“ fungiert. Es ermöglicht Designern, Meta-Optimierungen über komplexe Agenten-Architekturen hinweg durchzuführen, um deren Leistung iterativ zu steigern.

Die Nutzung optimierbarer Berechnungsgraphen erlaubt eine effektive Attribution des Nutzerfeedbacks und sorgte für eine nachgewiesene Leistungssteigerung von etwa 20 Prozent im Benchmark. Trace wurde dabei als eine Form des Inferenz-Skalierens interpretiert – ähnlich innovativen Konzepten wie Chain-of-Thought oder Multi-Agenten-Systemen. Trotz der Fortschritte bleiben Herausforderungen wie die Ausrichtung der Optimierungsziele und der Aufbau robuster Feedbacksysteme bestehen.Im Bereich der graphbasierten Systeme präsentierte Hema Raghavan von Kumo eine neuartige Herangehensweise mittels Graph-Transformern, die direkt auf relationalen Daten arbeiten. Diese Methode eliminiert den bisherigen Bedarf an manueller Feature-Engineering-Arbeit bei Personalisierungs- und Risikobewertungsanwendungen.

Kumo nutzt die Struktur um ein Datenobjekt als sequenzierbaren Teilgraphen, der mehrfach über Spalten, Tabellen und Verbindungen hinweg analysiert werden kann. So werden Features automatisch durch ein Graph-Neural-Network gelernt und ermöglichen präzise Echtzeit-Vorhersagen. Die Plattform von Kumo abstrahiert den Prozess, indem Nutzer einfach ihren relationalen Datensatz registrieren und das Vorhersageziel definieren. Das System übernimmt die komplexe Modellierung und das Training automatisiert.Einweitere Blick in die Rolle von AI bei Finanzdienstleistungen zeigte Edgar Meji von Bloomberg auf.

Er thematisierte vor allem die entscheidende Bedeutung robuster Evaluationsmethoden für Anwendungsszenarien, bei denen komplexe, domänenspezifische Entscheidungsprozesse und kritisches Denken eine zentrale Rolle spielen. Er unterstrich das Potenzial von großen Sprachmodellen (LLMs) für eine synthetische Evaluation, die schnellere und potentiell genauere Bewertungen und Annotationen ermöglicht. Bei Bloomberg fokussiert man sich speziell auf den Einsatz von agentischen AI-Infrastrukturen im Dokumenten-Q&A und in der Inhaltszusammenfassung, etwa für Nachrichteninhalte in Bloomberg-Terminals. Diese innovative Herangehensweise trägt dazu bei, die Produktweiterentwicklung vom Ideation-Prozess bis zum Post-Release-Monitoring kontinuierlich zu verbessern.Ein besonders eindrucksvoller Beitrag kam von YouTube, präsentiert von Lexi Baugher.

Sie stellte dar, wie der Video-Plattform-Gigant riesige Modelle nutzt, um die gigantischen Herausforderungen der Personalisierung zu bewältigen. YouTube verfolgt dabei einen mehrschichtigen Ansatz: Zum einen werden traditionelle Empfehlungssysteme durch Knowledge Distillation und effizientere Techniken wie Quantisierung beschleunigt, wodurch die Inferenzkosten deutlich reduziert werden. Dabei gibt es allerdings eine Herausforderung, inwieweit ein zu großes Lehrermodell noch effektiv Wissen an ein kleineres Schülermodell weitergeben kann. Zum anderen nutzt YouTube Large Language Models, um komplexe Planung von Inhalten zu delegieren und somit qualitativ hochwertigere Explorationen zu ermöglichen. Darüber hinaus wird mit generativer Retrieval-Technologie experimentiert, bei der sequentielle Item-Vorhersagen auf Basis semantischer Repräsentationen (“Semantic IDs”) erfolgen, was zum Beispiel in Bereichen wie Beauty eine 30-prozentige Verbesserung der Trefferquote erzielt.

Die Umgestaltung von Such- und Discovery-Prozessen anhand großer Sprachmodelle demonstrierte Tejaswi von Instacart. Das Unternehmen ersetzt eine Vielzahl spezialisierter Deep-Learning-Modelle durch wenige leistungsstarke LLMs, die sowohl besser mit breiten und seltenen Suchanfragen umgehen als auch reichhaltigere Produktempfehlungen durch Kombination aus Weltwissen und domänenspezifischen Suchprotokollen generieren. Besonders beeindruckend ist, wie die Integration von allgemeinem LLM-Wissen mit spezifischen Erkenntnissen aus den eigenen Nutzerdaten zu substantiellen Verbesserungen in der Produktsuche und Inspiration führt.Ein inspirierendes Fireside Chat mit Kevin Scott (Microsoft CTO) und Elizabeth Stone (Netflix CTO) bot hochkarätige Perspektiven zur Rolle von AI in der Unternehmenswelt der Zukunft. Künstliche Intelligenz wurde dabei als entscheidender Enabler beschrieben, der hilft, die Fülle an Möglichkeiten und Herausforderungen zu managen.

Zukünftige Personalisierung wird sich weg von einfachen Abrufen vorgegebener Item-Kandidaten hin zu proaktiven, AI-getriebenen Entdeckungsprozessen entwickeln, die Nutzerbedürfnisse selbstständig erkennen und bedienen. Kevin Scott ermutigte zudem, sich von den großen Technologieunternehmen nicht einschüchtern zu lassen, sondern eigene innovative Wege zu verfolgen.Spotify präsentierte mit Divita Vohra und Jacqueline Wood einen spannenden Ansatz zur Domänenspezifizierung von offenen Foundation-Modellen. Das Ziel ist es, offene LLMs durch semantische Tokenisierung von Spotify-eigenen Entitäten wie Künstlern, Episoden und Hörbüchern besser an die eigenständige Katalogstruktur anzupassen. Dabei werden Embeddings mittels Locality Sensitive Hashing in diskrete semantische IDs transformiert, die dann als erweiterter Wortschatz in einem feinjustierten LLaMA-Modell eingebunden werden.

Dieses Vorgehen ermöglicht Aufgaben wie Playlist-Sequenzierung, Kaltstart-Empfehlungen, personalisierte Podcast-Erlebnisse, semantische Suche und nachvollziehbare Empfehlungserklärungen. Das feinjustierte Modell kann darüber hinaus durch Nutzerdaten und -ziele gesteuert werden, um individuelle Präferenzen besser zu berücksichtigen. Die Herausforderungen liegen in der Balance zwischen Modellgeneralität und semantischer Genauigkeit, die stark von Trainingsstrategien und Aufgaben abhängt.Netflix selbst stellte mit Yang Li und Ko-Jen Hsiao seine eigene Vision für die Zukunft der personalisierten Empfehlungen vor, die sich mit der Komplexität und Skalierbarkeit aktueller Systeme auseinandersetzt. Statt vieler spezialisierter, komplexer Modelle für verschiedene personalisierte Empfehlungen auf der Startseite („Lololo“ – Liste von Listen von Filmen) werden künftig Multi-Task-Lernmodelle (MTL) wie das „Hydra“-Modell eingesetzt.

Dieses bündelt diverse Aufgaben und Ranking-Signale in einem einzigen gemeinsamen Modell, was Systemvereinfachung und schnellere Integration neuer Anforderungen ermöglicht. Ergänzend arbeitet Netflix an einem Foundation-Model, das als zentrales Wissensträger-Modul Präferenzen der Nutzer und Inhalte vereint und als Grundlage für verschiedene Downstream-Anwendungen dient, etwa in der Suche oder Nachrichtenfunktion. Die größten Herausforderungen liegen dabei in der effizienten Handhabung der unterschiedlichen Eingabetypen, der Vermeidung negativer Übertragungen zwischen Aufgaben und den infrastrukturellen Kosten.Aus allen Vorträgen und Diskussionen kristallieren sich mehrere zentrale Trends heraus. Große Foundation- und Sprachmodelle sind mittlerweile unverzichtbare Basiselemente für modernes Nutzerverständnis und Content-Empfehlungen.

Die Domänenspezifische Anpassung dieser Modelle ist essenziell, um in spezialisierten Kontexten relevante Ergebnisse zu erzielen. Meta-Optimierung und agentenbasierte Workflow-Optimierungen stehen im Fokus, um komplexe AI-Abläufe effektiv zu steuern. Die Konsolidierung vieler spezialisierter Modelle in weniger, aber stärkere Multi-Task-Modelle und Foundation-Modelle vereinfacht Architektur und Pflege erheblich. Gleichzeitig entwickelt sich die Evaluation weg von starren Kriterien hin zu flexiblen, produktzentrierten Verfahren. Effizienz und Skalierbarkeit bleiben entscheidend, um diese komplexen Modelle in Planetengröße zu betreiben.

Der Netflix PRS Workshop 2025 illustriert eindrucksvoll, wie schnell sich das Feld der AI-gestützten Personalisierung, Empfehlung und Suche weiterentwickelt. Neue Denkweisen und Technologien revolutionieren den Entwicklungsprozess von Machine-Learning-Produkten genauso wie die Nutzererfahrung selbst. Es zeigt sich, dass in den kommenden Jahren der Fokus noch stärker auf integrierte, adaptive AI-Systeme liegen wird, die nicht nur reagieren, sondern proaktiv Mehrwert schaffen und das Nutzererlebnis individuell maßschneidern. Für Unternehmen bedeutet dies einerseits die Herausforderung, mit der rasanten technologischen Entwicklung Schritt zu halten, andererseits die Chance, durch innovative AI-Anwendungen Wettbewerbsvorteile zu erzielen und Nutzer auf völlig neue Weise zu begeistern.

Automatischer Handel mit Krypto-Geldbörsen Kaufen Sie Ihre Kryptowährung zum besten Preis

Als Nächstes
What do you need in order to become wealthy?
Samstag, 21. Juni 2025. Reichtum verstehen: Was braucht es wirklich, um wohlhabend zu werden?

Ein umfassender Einblick in die verschiedenen Facetten von Reichtum, wie persönliche Definitionen, notwendige Voraussetzungen und praktische Wege zum Aufbau von Wohlstand, der über Geld hinausgeht.

Why are there so many Postgres Analytics startups?
Samstag, 21. Juni 2025. Warum gibt es so viele Postgres-Analytics-Startups? Ein Blick auf die Innovationswelle im Datenbankumfeld

Die rasante Entwicklung im Bereich Postgres-Analytics und die Entstehung zahlreicher Startups sind Ausdruck einer wachsenden Nachfrage nach leistungsfähigen, flexiblen und integrierten Analyse-Lösungen. Von der Herausforderung großer Datenmengen bis zur Verbindung von Transaktions- und Analysedaten prägen technologische Innovationen die Zukunft der Datenverarbeitung.

Warren Buffett's "2 List" Strategy: How to Maximize Your Focus
Samstag, 21. Juni 2025. Warren Buffetts 2-Listen-Strategie: Mit maximaler Konzentration zum Erfolg

Die 2-Listen-Strategie von Warren Buffett zeigt, wie man durch klare Priorisierung und konsequentes Eliminieren von Ablenkungen die Produktivität erheblich steigert und seine wichtigsten Ziele erreicht.

Which AI Agent is your favorite?
Samstag, 21. Juni 2025. Welche KI-Agenten sind die Favoriten der Nutzer? Ein umfassender Überblick

Ein detaillierter Einblick in die beliebtesten KI-Agenten, ihre Anwendungsmöglichkeiten im Alltag und die Erfahrungen von Nutzern aus der Praxis.

The Line of Death
Samstag, 21. Juni 2025. Die Gefahren der „Line of Death“: Wie vertrauenswürdige Benutzeroberflächen im Web manipuliert werden können

Die „Line of Death“ beschreibt eine unsichtbare Grenze in Webbrowsern, die zwischen vertrauenswürdigen und potenziell manipulierbaren Bereichen der Benutzeroberfläche trennt. Diese Analyse erklärt die Risiken, Methoden der Angreifer und mögliche Schutzmaßnahmen, die jeder Nutzer und Entwickler verstehen sollte.

Moment of heart's formation captured in images for first time
Samstag, 21. Juni 2025. Erstmals Moment der Herzbildung in atemberaubenden Bildern eingefangen

Die bahnbrechenden Zeitrafferaufnahmen zeigen, wie sich das Herz bei einem Mäuseembryo formiert und eröffnen neue Perspektiven im Verständnis von angeborenen Herzfehlern sowie der regenerativen Medizin.

Transactions and Serverless Are Made for Each Other (2024)
Samstag, 21. Juni 2025. Warum Transaktionen und Serverless-Computing 2024 eine perfekte Symbiose bilden

Die Kombination von Datenbank-Transaktionen mit serverlosen Plattformen eröffnet neue Möglichkeiten für zuverlässige, skalierbare und leicht wartbare Anwendungen im Zeitalter der Cloud. Die innovative Verschmelzung dieser Technologien verbessert nicht nur die Fehlerbehebung, sondern garantiert auch eine exakte Ausführung von Geschäftslogik und legt den Grundstein für die nächste Generation cloudbasierter Applikationen.