print logo

Was KI 2024 bewegt

Von fortschrittlichen Large Language Models über neue Hardware-Alternativen bis zu globalen wirtschaftlichen Auswirkungen.
Carsten Kraus | 24.01.2024
© freepik / biancoblue
 

Rasant, rasanter, KI – so in etwa lässt sich die Geschwindigkeit der Schritte künstlicher Intelligenz wohl am besten beschreiben. Mit Blick auf die verschiedenen Steps, die die Technologie parallel geht, verlieren wir schnell den Überblick. Hier meine Prognosen für 2024:

Software

Kleinere Large Language Models (LLM) werden nun leistungsfähig genug für viele Anwendungen. Große Fortschritte in diese Richtung lassen sich schon jetzt ausmachen an den Beispielen Gemini Nano von Google und Phi-2 von Microsoft – letzteres hat ungefähr die Leistung des 25-mal größeren Llama 2. Wenn LLMs mit wesentlich weniger Rechenleistung auskommen, wird ihr Einsatz kostengünstiger, und sie können für weitere Aufgaben eingesetzt werden.

Neben den LLMs wird Deep Reinforcement Learning (Deep RL) weitere Durchbrüche schaffen und damit mehr Beachtung finden. Google – mit seiner Tochterfirma DeepMind führend in Deep RL – wird den Versuch unternehmen, LLMs mit Deep RL zu verbinden. Wenn das gelingt, kann KI viel besser komplizierte Sachverhalte durchdenken als bisher. Auch bisher hat DeepMind schon für Aufsehen in der Wissenschaft gesorgt, zum Beispiel mit Alpha Fold für die Medizin, einigen Durchbrüchen in der Mathematik-Forschung und zuletzt mit der Entdeckung hunderttausender neuer Materialien in der Werkstoffforschung.

Neues auf dem Hardware-Markt

Mit den MI300-Karten für Rechenzentren stellt AMD eine echte Alternative zu nVidia vor. Das kann dazu führen, dass nVidia nicht mehr jeden Preis durchsetzen kann, und die High-End Karten billiger werden. Weiterer Punkt: KI wird bisher meist auf GPUs ausgeführt, die ursprünglich für Grafik entwickelt wurden. Hier ist spezielle Hardware effizienter. IBM hat Northpole präsentiert. Diese Architektur verteilt den Speicher nah an die Rechenkerne angeordnet. Das Unternehmen erwartet eine mindestens fünfmal höhere Effizienz. Zudem schreitet die Entwicklung von Spiking Neural Networks voran, in Form von speziellen Chips. Die Chips kommen erst in einigen Jahren, aber im April 2024 soll ein Supercomputer namens DeepSouth in Betrieb gehen, der das Spiking-Prinzip mit schon bestehender Hardware umsetzt. Das bringt noch nicht die vollen Effizienzgewinne ein – aber wir können gespannt sein.

 

Auswirkungen auf die Weltwirtschaft

Der Run aller Nationen auf LLMs wird groß, um nicht von den USA und China abhängig zu sein. Denn: Jeweilige Entwickler können Meinungen und Geisteshaltungen der LLMs und somit auch der Anwender beeinflussen. China wird seine Bemühungen weiter hochfahren und auch das staatliche Budget erhöhen. Möglich, dass aktiv der Versuch unternommen wird, chinesischstämmige KI-Forscher aus den USA zurückzuholen. Schauen wir auf Indien, sehen wir eine potenzielle Bedrohung für die Outsourcing-Firmen. Routine-Tätigkeiten in der Software-Entwicklung lassen sich durch KI heute bereits doppelt so schnell erledigen. In Indien stammen 7,4 Prozent des BIP aus der Software-Industrie. Dementsprechend groß ist der Impact. Abschließend noch ein Blick auf den AI Act: Die EU hat beschlossen, KI-Anwendungen wegen potenziell riskanter Folgen einzuschränken. Da das Regelwerk kompliziert ist, und die Strafen sehr hoch, wird es ähnlich der DSGVO Ängste auslösen; und damit lassen viele europäische Mittelstands-Unternehmen aller Branchen lieber die Finger von KI – mit gefährlichen Folgen für deren Produktivität. Wichtig ist jetzt, dass die EU aktiv bekannt macht, dass die meisten KI-Anwendungen weiterhin erlaubt sind, und den Mittelstand zur Anwendung animiert.