Es wird vorgeschlagen, eine Entwicklungspause von mindestens sechs Monaten einzulegen, um Mechanismen und Regularien zur Sicherheit von künstlicher Intelligenz (KI) zu entwickeln. Während dieser Zeit sollen keine neuen Modelle trainiert werden, bestehende Systeme, jedoch, können weiter verwendet werden.
Es müssen sowohl technische als auch regulatorische Sicherheitsmaßnahmen entwickelt werden. Wichtig wäre beispielsweise auch die Entwicklung eines globalen Konsenses— ähnlich wie im Biowaffenbereich—, um Mindeststandards für die Veröffentlichung von neuen KIs festzulegen.
Es gibt noch keine finalen Lösungen, um KI-Sicherheit zu gewährleisten. Die Forderung nach einer Entwicklungspause, um Sicherheitsmechanismen für die KI zu entwickeln, scheint daher plausibel.
Du möchtest Kommentare bearbeiten, voten und über Antworten benachrichtigt werden?
Jetzt kostenlos Community-Mitglied werden