Andrej Karpathy hat gerade eines der "unhinged" Repos veröffentlicht, die er je geschrieben hat – NanoChat. Es ist ein von Grund auf neu entwickeltes, minimales, aber vollständiges ChatGPT-ähnliches System, das dir beibringt, wie du dein eigenes LLM für unter 100 $ trainierst und betreibst. Mit nur ~8 k Zeilen sauberem Code deckt es alles ab: Tokenizer (auf Rust basierend), Vortraining auf FineWeb, Mid-Training auf SmolTalk, SFT auf MMLU / GSM8K / HumanEval, optionales RL über GRPO, effiziente Inferenz mit KV-Cache + Prefill/Decode und eine ChatGPT-ähnliche WebUI. (1/n)
Aufgeregt, das neue Repository: nanochat! (es ist eines der unkonventionellsten, die ich geschrieben habe). Im Gegensatz zu meinem früheren ähnlichen Repository nanoGPT, das nur das Pretraining abdeckte, ist nanochat eine minimale, von Grund auf neu entwickelte, vollständige Trainings-/Inference-Pipeline eines einfachen ChatGPT-Klons in einem einzigen, abhängigkeit-minimalen Code. Du startest eine Cloud-GPU-Box, führst ein einzelnes Skript aus und kannst in nur 4 Stunden mit deinem eigenen LLM über eine ChatGPT-ähnliche Weboberfläche sprechen. Es umfasst ~8.000 Zeilen meines Erachtens ziemlich sauberen Codes, um: - Den Tokenizer mit einer neuen Rust-Implementierung zu trainieren - Ein Transformer-LLM auf FineWeb vorzutrainieren und den CORE-Score über eine Reihe von Metriken zu bewerten - Midtrain auf Benutzer-Assistent-Gesprächen von SmolTalk, Multiple-Choice-Fragen, Werkzeugnutzung. - SFT, das Chat-Modell auf weltlichem Wissen Multiple-Choice (ARC-E/C, MMLU), Mathematik (GSM8K), Code (HumanEval) zu bewerten - Das Modell optional auf GSM8K mit "GRPO" zu verstärken - Effiziente Inferenz des Modells in einer Engine mit KV-Cache, einfache Vorbefüllung/Dekodierung, Werkzeugnutzung (Python-Interpreter in einer leichten Sandbox), über CLI oder ChatGPT-ähnliche WebUI mit ihm zu sprechen. - Einen einzigen Markdown-Bericht zu schreiben, der das Ganze zusammenfasst und gamifiziert. Selbst für nur ~$100 Kosten (~4 Stunden auf einem 8XH100-Knoten) kannst du einen kleinen ChatGPT-Klon trainieren, mit dem du ein bisschen sprechen kannst und der Geschichten/Poesie schreiben und einfache Fragen beantworten kann. Etwa ~12 Stunden übertrifft den GPT-2 CORE-Metrik. Wenn du weiter auf ~$1000 (~41,6 Stunden Training) skalierst, wird es schnell viel kohärenter und kann einfache Mathematik-/Code-Probleme lösen und Multiple-Choice-Tests ablegen. Zum Beispiel erreicht ein Modell der Tiefe 30, das 24 Stunden trainiert wurde (das entspricht etwa den FLOPs von GPT-3 Small 125M und 1/1000 von GPT-3), 40er Werte auf MMLU und 70er auf ARC-Easy, 20er auf GSM8K usw. Mein Ziel ist es, den vollständigen "starken Baseline"-Stack in ein kohärentes, minimales, lesbares, hackbares, maximal forkbares Repository zu integrieren. nanochat wird das Abschlussprojekt von LLM101n (das noch entwickelt wird) sein. Ich denke, es hat auch das Potenzial, sich zu einem Forschungsharnisch oder einem Benchmark zu entwickeln, ähnlich wie nanoGPT zuvor. Es ist bei weitem nicht fertig, abgestimmt oder optimiert (tatsächlich denke ich, dass es wahrscheinlich noch einiges an niedrig hängenden Früchten gibt), aber ich denke, es ist an einem Punkt, an dem das gesamte Gerüst gut genug ist, dass es auf GitHub hochgeladen werden kann, wo alle Teile davon verbessert werden können. Der Link zum Repository und eine detaillierte Anleitung zum nanochat-Speedrun sind in der Antwort.
Du kannst eine GPU hochfahren, das Skript ausführen und in etwa 4 Stunden deinen eigenen Chatbot zum Chatten haben. Karpathy sagt, dass das $100 Modell bereits Gedichte und Geschichten schreiben kann und GPT-2 auf CORE übertrifft; $1000 bringt es nahe an GPT-3 Small 125M FLOPs mit 40 + MMLU und 70 + ARC-Easy Scores. Das Ziel ist ein einheitliches, lesbares, hackbares Repository, das die vollständige "starke Baseline-Pipeline" bündelt: ein Nachfolger von nanoGPT und das Rückgrat für seinen bevorstehenden LLM101n-Kurs.
Selbst mit einem kleinen Budget sind die Ergebnisse überraschend. • $100 Lauf (8×H100, 4 Std.): schlägt GPT-2 auf CORE, kann Gedichte und Kurzgeschichten schreiben. • $1000 Lauf (≈24 Std., GPT-3 Small 125 M FLOPs, 1/1000 Maßstab): – MMLU 40 + – ARC-Easy 70 + – GSM8K 20 + es ist eine echte Forschungsgrad-Mini-Pipeline.
Als jemand fragte, ob NanoChat verwendet werden könnte, um ein persönliches LLM (auf Notion-Notizen, Gesundheitsdaten usw.) zu trainieren, goss Karpathy kaltes Wasser auf die Idee: „Das ist kein gutes Repository dafür… Denk an diese Mikro-Modelle als sehr junge Kinder; ihnen fehlt die rohe Intelligenz ihrer größeren Verwandten.“ Wenn du sie mit persönlichen Daten feinabstimmst, bekommst du vielleicht „niedliches Nachplappern“, das deinen Schreibstil imitiert, aber es wird trotzdem Schrott sein. 🪿
Warum Personalisierung schwierig ist Um ein wirklich personalisiertes Modell zu erstellen, müssten Sie: • Hochwertige Basisdaten vorbereiten • Unmengen synthetischer Daten generieren (komplex + vielfältig) • Auf einem starken offenen LLM (z.B. Tinker) feinabstimmen • Möglicherweise große Vortrainingsdaten einmischen, um allgemeine Intelligenz zu erhalten Das ist heute immer noch Forschungsniveau, kein Wochenendprojekt.
Größeres Bild Karpathy sieht NanoChat als das neue nanoGPT— ein minimales, aber vollständiges Framework, das sich zu einem Standard für LLM-Forschung, Gemeinschaftszusammenarbeit und Bildung entwickeln kann. Im Moment ist es noch nicht vollständig optimiert, aber die Architektur ist solide—bereit für GitHub-Beitragende, um es modulweise voranzutreiben.
Original anzeigen
4.633
15
Der Inhalt dieser Seite wird von Drittparteien bereitgestellt. Sofern nicht anders angegeben, ist OKX nicht der Autor der zitierten Artikel und erhebt keinen Anspruch auf das Urheberrecht an den Materialien. Die Inhalte dienen ausschließlich zu Informationszwecken und spiegeln nicht die Ansichten von OKX wider. Sie stellen keine Form der Empfehlung dar und sind weder als Anlageberatung noch als Aufforderung zum Kauf oder Verkauf digitaler Assets zu verstehen. Soweit generative KI zur Bereitstellung von Zusammenfassungen oder anderen Informationen eingesetzt wird, kann der dadurch erzeugte Inhalt ungenau oder widersprüchlich sein. Mehr Infos findest du im verlinkten Artikel. OKX haftet nicht für Inhalte, die auf Drittpartei-Websites gehostet werden. Digitale Assets, einschließlich Stablecoins und NFT, bergen ein hohes Risiko und können stark schwanken. Du solltest sorgfältig überlegen, ob der Handel mit oder das Halten von digitalen Assets angesichts deiner finanziellen Situation für dich geeignet ist.