Der Brief fordert alle Forschungs- und Entwicklungslabors für künstliche Intelligenz sowie unabhängige Experten auf, das Training von künstlichen Intelligenzsystemen, die leistungsfähiger sind als OpenAIs GPT-4, für mindestens sechs Monate einzustellen. Wenn ein solcher Stopp nicht so schnell wie möglich umgesetzt werden kann, müssen staatliche Stellen eingreifen und ein Moratorium verhängen.
Dies ist kein Zeichen dafür, die KI-Entwicklung generell zu stoppen, sondern ein Schritt zurück vor einem gefährlichen Wettlauf zu undefinierten Modellen mit außergewöhnlichen Fähigkeiten. Sie weisen auch darauf hin, dass KI-Labors und unabhängige Experten diese Pause nutzen sollten, um gemeinsam gemeinsame Sicherheitsprotokolle zur Verbesserung der KI-Konzeption und -Entwicklung zu entwickeln und umzusetzen.
Die Unterzeichner argumentieren, dass die Labore für künstliche Intelligenz in den letzten Monaten die Kontrolle über die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe verloren haben, die niemand, nicht einmal ihre Schöpfer, verstehen, vorhersagen oder zuverlässig kontrollieren kann.
Die Autoren des Schreibens stellen die Fragen: Sollten wir Maschinen vertrauen, dass sie unsere Informationskanäle mit Propaganda und Lügen füllen? Sollten wir alle Arbeiten automatisieren, auch die, die uns Spaß machen?
Die Autoren des Schreibens empfehlen, bei der Automatisierung von Arbeit und dem Einsatz künstlicher Intelligenz vorsichtig zu sein. Die Frage ist, ob wir alle Arbeiten automatisieren sollen, auch die, die uns Spaß machen. Darüber hinaus stellen die Autoren die Frage, ob wir nicht-menschliche Intelligenzen entwickeln sollten, die uns schließlich ersetzen könnten. Ein weiterer Punkt, der Anlass zur Sorge gibt, ist der Verlust der Kontrolle über unsere Zivilisation, wenn wir zulassen, dass künstliche Intelligenz zu mächtig wird. Ihrer Ansicht nach sollten leistungsfähige künstliche Intelligenzsysteme nur dann geschaffen werden, wenn wir sicher sind, dass sie keine Risiken bergen und nur Gutes bewirken können.