KI könnte helfen, KI-Misinformation zu bekämpfen – Nvidia-CEO
sign up

KI muss gegen KI-generierte Desinformation kämpfen

Jensen Huang, CEO von Nvidia, sieht Künstliche Intelligenz (KI) als entscheidend an, um die Risiken zu bekämpfen, die durch KI-generierte Desinformation entstehen. In einer Rede beim Bipartisan Policy Center betonte Huang, dass die Fähigkeit von KI, schnell falsche Informationen zu verbreiten, erfordert, dass KI-basierte Lösungen ebenso schnell oder schneller arbeiten müssen, um diese Bedrohungen zu erkennen und zu stoppen.

Huang warnte, dass die Fähigkeit der KI, irreführende Daten und falsche Informationen zu erzeugen, mit der Weiterentwicklung der Technologie noch zunehmen werde. Er betonte, dass es ähnliche Systeme geben müsse, die auf gleichem oder höherem Tempo arbeiten, um diese Gefahren abzuwehren.

Er verglich die Rolle von KI beim Umgang mit Desinformation mit der aktuellen Cybersecurity-Landschaft. Nahezu jedes Unternehmen sei heute Bedrohungen durch Cyberangriffe ausgesetzt, und robustere Sicherheitsmaßnahmen seien notwendig, um diese Angriffe zu neutralisieren. Huang argumentierte, dass KI-Technologie auf ähnliche Weise gebraucht werde, um KI-gesteuerten Bedrohungen einen Schritt voraus zu sein.

Huang fordert die Regierung auf, KI-Technologie zu nutzen

Huang rief auch die US-Regierung dazu auf, eine aktivere Rolle in der Entwicklung von Künstlicher Intelligenz einzunehmen. Er betonte, dass die Regierung nicht nur die Regulierung von KI in den Vordergrund stellen, sondern auch selbst als Anwender dieser Technologie agieren sollte.

Er nannte das Energieministerium und das Verteidigungsministerium als zentrale Ministerien, in denen diese innovative Technologie eine kritische Rolle spielen könnte. Huang schlug vor, dass die Vereinigten Staaten den Bau eines Supercomputers in Betracht ziehen sollten, um die Forschung und Entwicklung in diesem Bereich zu beschleunigen.

sign up

Ein solcher Schritt würde es Wissenschaftlern ermöglichen, neue KI-Algorithmen zu entwickeln, die den nationalen Interessen zugutekommen könnten. Huangs Aussagen kommen zu einer Zeit, in der wachsende Bedenken über die Rolle der Technologie bei der Beeinflussung der öffentlichen Meinung bestehen, insbesondere im Vorfeld der US-Bundeswahlen im November.

Laut einer Umfrage des Pew Research Center äußerten sich fast 60 % der Amerikaner besorgt darüber, dass KI genutzt werden könnte, um falsche Informationen über Präsidentschaftskandidaten zu verbreiten. Etwa 40 % der Befragten glauben, dass KI für schädliche Zwecke bei den kommenden Wahlen eingesetzt wird, während nur ein kleiner Prozentsatz davon überzeugt ist, dass KI zum Guten genutzt wird.

Diese Ängste wurden weiter verstärkt, als ein anonymer US-Geheimdienstmitarbeiter berichtete, dass Russland und der Iran bereits KI nutzen, um politische Inhalte zu manipulieren, darunter Videos von Vizepräsidentin Kamala Harris.

Zukünftige KI-Modelle werden mehr Energie benötigen

Huang stellte außerdem fest, dass KI-Modelle erheblich mehr Energie benötigen werden, je komplexer sie werden. Er prognostizierte, dass zukünftige Datenzentren bis zu 20-mal mehr Energie verbrauchen könnten als heutige Datenzentren.

Der Nvidia-CEO schlug vor, diese Zentren in der Nähe von Standorten mit überschüssiger Energie zu bauen, da es für KI unerheblich ist, wo sie „lernt“. Remote-Datenzentren werden somit zu einer praktikablen Option, um den Energieverbrauch zu steuern.

Huang wies darauf hin, dass zukünftige Modelle zunehmend auf andere KI-Systeme angewiesen sein werden, um sich gegenseitig zu trainieren. Dies, in Kombination mit der wachsenden Datenmenge, die für das Training erforderlich ist, werde den Energieverbrauch in der gesamten Branche in die Höhe treiben.

Kaliforniens Gouverneur Newsom legt umstrittenes Sicherheitsgesetz auf Eis

Unterdessen hat Kaliforniens Gouverneur Gavin Newsom das umstrittene Gesetz SB 1047, ein heiß diskutiertes KI-Sicherheitsgesetz, abgelehnt. Er argumentierte, dass es die Innovation behindern würde. Das Gesetz, bekannt als „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act“, zielte darauf ab, strenge Sicherheitsstandards für KI-Modelle einzuführen.

Demnach wären Unternehmen wie OpenAI, Meta und Google verpflichtet gewesen, ihre KI-Systeme zu testen und eine Art „Not-Aus-Schalter“ zu implementieren. Nach der Ablehnung des Gesetzes äußerte Newsom Bedenken, dass die vorgeschlagenen Vorschriften die Entwicklung neuer KI-Modelle behindern könnten.

Laut Newsom habe das Gesetz große KI-Unternehmen ins Visier genommen, ohne die tatsächlichen Risiken, die von KI ausgehen, effektiv anzugehen. Er betonte, dass das Gesetz unnötige Einschränkungen für wesentliche Funktionen auferlegen würde, was ein Hindernis für zukünftige Innovationen schaffen könnte.

Der Sponsor des Gesetzes, Senator Scott Wiener, argumentierte jedoch, dass diese Vorschriften notwendig seien, um potenzielle Katastrophen im Zusammenhang mit der KI-Entwicklung zu verhindern. Wäre das Gesetz verabschiedet worden, hätte es dem kalifornischen Generalstaatsanwalt erlaubt, Entwickler zu verklagen, wenn ihre KI-Systeme erhebliche Risiken wie die Übernahme kritischer Infrastrukturen, etwa Stromnetze, ermöglichten.

Newsoms Veto löst Debatte über Innovation und Sicherheit aus

Trotz seines Vetos erkannte Newsom die Notwendigkeit von Sicherheitsmaßnahmen im Bereich der Künstlichen Intelligenz an, forderte jedoch einen ausgewogeneren Ansatz. Er beauftragte Experten mit der Entwicklung wissenschaftlich fundierter Risikobewertungen und wies staatliche Behörden an, weiterhin potenzielle Bedrohungen durch Künstliche Intelligenz zu bewerten.

Das Gesetz stieß auf heftigen Widerstand aus dem Silicon Valley, einschließlich Technologieriesen wie OpenAI und Google, sowie einiger Politiker. Die ehemalige Sprecherin des Repräsentantenhauses, Nancy Pelosi, warnte, dass das Gesetz den Fortschritt der Künstlichen Intelligenz in Kalifornien verlangsamen könnte.

Fazit: Eine Zukunft mit KI im Zentrum

Jensen Huang betonte in seiner Rede die kritische Rolle von Künstlicher Intelligenz bei der Bekämpfung von Desinformation und anderen Bedrohungen. Während die Technologie schnell Fortschritte macht, bleibt die Herausforderung bestehen, wie man diese Fortschritte verantwortungsbewusst nutzt.

Auf der anderen Seite wird die Debatte über die Regulierung und Entwicklung von KI weiter anhalten, besonders in Hinblick auf die bevorstehenden Wahlen und die zunehmende Nutzung von KI im politischen Umfeld. Klar ist, dass sowohl die Technologie als auch die Vorschriften sich in den kommenden Jahren weiterentwickeln müssen, um mit den wachsenden Möglichkeiten und Gefahren der Künstlichen Intelligenz Schritt zu halten.

Kevin Decker

By Kevin Decker

Kevin Decker ist ein erfahrener Finanzexperte und Autor bei Aktienkauf.net. Mit über 10 Jahren Erfahrung in der Finanzbranche teilt er sein umfangreiches Wissen über Aktienhandel und Investmentstrategien mit den Lesern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert