본문바로가기

PR

Liefert die neuesten Informationen über Sinsiway und
eine Vielzahl von IT/Sicherheitsinformationen.




Im Jahr 2023 war das Interesse an AI heißer denn je. Insbesondere, beginnend mit ChatGPT, wurden Forschung und Entwicklung über Generative AI in verschiedenen großen Technologieunternehmen durchgeführt.

AI macht unser Leben bequem, aber es schafft auch unerwartete Variablen. Beispiele dafür sind Sicherheitsprobleme wie die Erzeugung falscher Informationen durch AI, diskriminierende Rede, persönliche Informationen und DeepFake Phishing. Aufgrund dieser Probleme setzen Länder auf der ganzen Welt Vorschriften ein, um Probleme durch AI zu verhindern und AI richtig zu nutzen.

Das größte Problem mit Generativer AI ist Halluzination. Halluzination bezieht sich auf die generierende AI-Information, die nicht mit Fakten zusammenhängt, und es ist ein typischer Fehler, der auftritt, wenn AI Informationen verarbeitet. Bei der Frage nach einem historischen Ereignis, das noch nie mit ChatGPT passiert ist, generiert ChatGPT plausible, aber falsche Antworten, die auf Daten basieren, die von einem Ereignis wie diesem erfahren werden. Diese Halluzination kann zur Verbreitung von Fehlinformationen und ethischen und moralischen Problemen führen.

Als Reaktion darauf hat Nature, eine weltbekannte internationale akademische Zeitschrift, im Juni die Veröffentlichung von Fotos, Videos, Illustrationen und Graphenbildern mit Generativ-AI verboten. Die Natur verbot die Verwendung von Daten oder Bildern, die mit Generative AI gewonnen wurden, weil rechtliche Urheberrechte und die Verbreitung falscher Informationen beschleunigt werden könnten.


Es besteht auch die Gefahr, falsche Informationen durch falsche Nachrichten zu verbreiten, die durch generative AI erzeugt werden, in der Praxis im Büro manipulierten bestimmte Gruppen die Stimme von Präsident Biden durch Generative AI. Im Originalvideo war die Aussage „Lass uns Tanks unterstützen, um der Ukraine zu helfen", aber sie wurde in eine Aussage umgewandelt, die Transgender durch Sprach-Generierende AI-Technologie kritisierte.



Europäisches AI-Gesetz

Im Jahr 2021 schlug die Europäische Kommission (EG) erstmals einen regulatorischen und rechtlichen Rahmen für AI vor. Am 8. Dezember 2023 haben sich die Europäische Kommission, das Europäische Parlament und Vertreter der 27 EU-Mitgliedstaaten auf den AI-Gesetz geeinigt, der als erster in der Welt das AI-Gesetz zur Regulierung der künstlichen Intelligenz verabschiedet hat.

Das AI-Gesetz, das 2026 in Kraft treten wird, ist das erste Gesetz, das auf AI zielt, und enthält auch Vorschriften über biometrische Authentifizierungswerkzeuge wie Gesichtserkennung und Fingerabdruck-Scannen, einschließlich Generative AI wie ChatGPT.

Das AI-Gesetz klassifiziert die Risiken von AI, erhöht die Transparenz und verhängt Geldbußen für Unternehmen, die die Vorschriften nicht einhalten. Darüber hinaus müssen die Unternehmen umfassende Vorschriften über AI einhalten, einschließlich der Erstellung technischer Dokumente, der Einhaltung der EU-Rechtsvorschriften über das Urheberrecht und der Bereitstellung spezifischer Zusammenfassungen der in der Ausbildung verwendeten Inhalte.

Unternehmen, die gegen die Regeln verstoßen, werden zwischen 7,5 Millionen Euro (ca. 10,7 Milliarden won) und bis zu 35 Millionen Euro (ca. 49,7 Milliarden won) oder 7% des weltweiten Umsatzes bestraft. Wenn dies auf Unternehmen wie Google und Microsoft angewendet wird, beträgt die Geldstrafe allein Milliarden von Dollar (Trillion Won).


Regulierungstendenzen im Zusammenhang mit der künstlichen Intelligenz in Korea

Der Ausschuss für den Schutz personenbezogener Informationen kündigte 2023 die Politik der sicheren Nutzung personenbezogener Daten im Zeitalter der künstlichen Intelligenz an. Diese Politik konzentriert sich auf die Verwendung der Daten, die für die Entwicklung von AI sicher erforderlich sind, während das Risiko einer Verletzung der Privatsphäre durch AI minimiert wird. Darüber hinaus wurden folgende Gesetzesvorlagen vorgeschlagen, um persönliche Informationen über künstliche Intelligenzdaten zu stärken und hochrisikoorientierte AI zu regulieren.

Außerdem kündigten die USA die Einführung von föderalen Maßnahmen zur Verringerung der sozialen und wirtschaftlichen Maut von AI an. Es wird erwartet, dass sie menschliche Jobs durch AI ersetzt und Richtlinien schreiben wird, um zu verhindern, dass die von AI geleiteten Einstellungssysteme unterschiedliche Diskriminierungen schaffen. Es wird auch die Nutzung von AI durch die Bundesregierung zur Offenlegung der Art und Weise umfassen, wie AI-Technologie verwendet wird, um Bürgerinformationen zum Schutz personenbezogener Daten zu sammeln. Sieben AI-Unternehmen, darunter Google, Meta und MS, haben angekündigt, dass sie ein „digitales Wassermarkierungssystem" entwickeln werden, das Benutzern hilft, Sprach- und Videoinhalte zu unterscheiden, die von AI erstellt und verändert werden.


Digitale Wassermarkierung bezieht sich auf eine Technologie, die Informationen wie Urheberrechte in Daten wie Fotos einfügt und verwaltet. Insbesondere falsche Fotos oder Videos mit AI können Auswirkungen auf die bevorstehende US-Präsidentschaftswahl Google erfordert, dass AI-Technologie offengelegt werden, wenn es in US-Präsidentschafts-Inhalten verwendet wird.