Deep Learning hat das Zeitalter der massiven Modell-Skalierung erreicht. Immer größere künstliche neuronale Netze werden mit immer mehr Rechenkraft auf enorme Datenmengen trainiert. Während vor zwei, drei Jahren Netze mit 100 Millionen Parametern als sehr groß galten, haben inzwischen OpenAI, Google Brain, Deepmind und zahlreiche andere Firmen tausendfach größere Modelle trainiert. Diese Modelle, wie etwa GPT-3, weisen Fähigkeiten auf, die vor wenigen Jahren für KI-Systeme noch undenkbar waren. Das wirft Fragen zur sogenannten „starken KI“ auf. Werden sich diese Modelle bis zu menschenähnlicher Intelligenz skalieren lassen?
Weiterlesen