DeepMind Transformer
Der Transformer markiert einen Wendepunkt der KI-Geschichte: 2017 zeigte „Attention“, dass Modelle Kontext nicht mehr Schritt für Schritt „durchlaufen“ müssen, sondern relevante Teile direkt gewichten können.
Dieses Prinzip machte Training und Skalierung praktisch – und wurde zur Blaupause moderner KI.
Für Informatiker ist das die Referenz-Architektur hinter heutigen Sprach- und Code-Modellen, aber auch hinter Vision- und Multimodal-Systemen.
Für Investoren ist es ein Plattform-Signal: Transformer haben ganze Wertschöpfungsketten neu sortiert – von Chips/Cloud über Daten- und Modellplattformen bis zu Anwendungen in Medizin und Wissenschaft.
Ein prominentes Beispiel ist AlphaFold, das zeigt, wie dieselbe Grundidee weit über Text hinaus wissenschaftliche Durchbrüche beschleunigen kann.
Weiterführende Links: