GT News

Steuern, Buchhaltung, Recht und mehr. Alle wichtigen Neuigkeiten für Ihr Unternehmen.

Veronika Odrobinová | Jan Nešpor | October 10, 2023

Wir können AI scheinbar nicht aufhalten, warum also nicht sie nutzen?

Teile den Artikel

Ende Juni dieses Jahres gab das Ministerium für Industrie und Handel seine Absicht bekannt, die Nationale Strategie für künstliche Intelligenz zu aktualisieren (Artificial intelligence = AI). Teil dieser Ankündigung war die Einleitung einer öffentlichen Besprechung zu diesem Thema, dank derer die Öffentlichkeit nun die Möglichkeit hat, über die Strategie und den allgemeinen Einsatz von AI (KI) in der Tschechischen Republik mitzureden.

AI (KI) ist mittlerweile ein allgegenwärtiges Werkzeug, dem Sie in Ihrem täglichen Leben im Bank-, Transport- und im Gesundheitswesen oder einfach beim Surfen im Internet begegnen werden. Die konkreten Folgen, die AI
nicht nur für die oben genannten Aktivitäten, sondern auch für das Funktionieren der Welt als solche haben wird, sind noch unbekannt. Vielleicht weckt die AI als solche aus diesem Grund in der Öffentlichkeit teils positive, teils völlig negative Stellungen.

Für viele Menschen ist AI ein Werkzeug, das die Wirtschaft verändern und ihnen Zeit und damit Geld sparen kann. Im Gegenteil, bei der zweiten Gruppe weckt AI die dunkelsten Ängste vor der Rebellion von Maschinen gegen Menschen, die an die dystopische Zukunft erinnern, die in Filmen wie „Matrix“ oder „Terminator“ dargestellt wird.

Allerdings entgeht die Debatte über AI den Regulierungsbehörden sowohl auf EU- als auch auf internationaler Ebene nicht. Im Jahr 2019 stellte die Kommission für wirtschaftliche Zusammenarbeit und Entwicklung (OECD)
5 Schlüsselprinzipien vor, die beim Einsatz von AI zu befolgen sind, und gleichzeitig 5 Empfehlungen für OECD- Mitgliedsstaaten, um sicherzustellen, dass das Potenzial von AI maximiert ausgenutzt wird und gleichzeitig die damit verbundenen Risiken minimiert werden.

In diesem Bericht stellte die OECD unter anderem die mittlerweile allgemein akzeptierte Definition von AI vor, nämlich: „ein auf mechanischem Fungieren basierendes System, das auf der Grundlage der von einer Person vorgegebenen Ziele Vorhersagen, Empfehlungen oder Entscheidungen hervorbringt, die sich auf ein reales oder virtuelles Umfeld auswirken. Das AI-System ist so konzipiert, dass es mit unterschiedlichen Autonomiestufen fungiert. Darüber hinaus führt künstliche Intelligenz menschliche kognitive Funktionen durch eine Maschine aus.“

Als vorgenannte Grundsätze definiert die OECD die Unterstützung der inklusiven Eingliederung und nachhaltigen Entwicklung von AI zum Wohle der Gesellschaft im Bereich des Wirtschaftswachstums, der Bekämpfung von Diskriminierung oder des Umweltschutzes. Der zweite Grundsatz besteht darin, den Einsatz von AI auf der Grundlage menschlicher Werte sicherzustellen, einschließlich Fairness, Achtung der Rechtsstaatlichkeit, Menschenrechte und demokratischer Werte. Darüber hinaus definiert die OECD als drittes und viertes Prinzip die Transparenz, Erklärbarkeit und Verständlichkeit der Prozesse und Schlussfolgerungen, die AI ausführt, zusammen mit der Gewährleistung der Möglichkeit, diesen Schlussfolgerungen zu widersprechen, sowie der Gewährleistung eines robusten und bedrohungsresistenten Systems, das nicht angegriffen oder misshandelt werden kann.
Der letzte Grundsatz überträgt dann die Verantwortung für den „Betrieb von AI“ auf die so genannten AI-Akteure (Entitäten, die AI umsetzen oder kontrollieren), und zwar sowohl für Schäden als auch für Verstöße gegen die oben genannten Grundsätze, die durch AI verursacht werden.

Auf der Grundlage dieser Grundsätze empfiehlt die OECD den einzelnen Ländern, die Entwicklung und Forschung im AI-Bereich zu unterstützen und das digitale, politische und gesellschaftliche Umfeld sicherzustellen, in dem AI  funktionieren kann, einschließlich der Gewährleistung des gesellschaftlichen Vertrauens. Des Weiteren auch die Entwicklung der menschlichen Fähigkeiten, um AI zu verstehen, mit ihr zu arbeiten und sie zu nutzen, und soziologische Dialoge und wirtschaftliche Vorbereitungen für die Transformation der Gesellschaft durch AI zu unterstützen. Schließlich betont die OECD auch die Notwendigkeit einer internationalen Zusammenarbeit, um vertrauenswürdige und sichere AI im Alltag zu gewährleisten.

Das von der OECD veröffentlichte Dokument enthält und benennt die Gefahr, die den Eindruck erwecken könnte, es gäbe nichts zu befürchten, aber als solches ist es sicherlich nicht selbstzerstörerisch. Um eine sichere und vertrauenswürdige AI zu gewährleisten, muss sicherlich noch viel mehr getan werden, als nur offizielle Empfehlungen vorzulegen. Diese Empfehlung eröffnet jedoch zumindest einen Dialog über die Chancen und Risiken, die AI mit sich bringt, kann Regulierungsbehörden dabei helfen, den Rahmen für den richtigen Einsatz von AI festzulegen, und wird mit etwas Glück einer der Faktoren sein, die letztendlich dazu beitragen, das gewünschte Ziel zu erreichen. Aber nur die Zeit wird es zeigen.

Abschließend kann man hinzufügen, wie ein beliebtes Sprichwort sagt: „Fortschritt kann man nicht aufhalten.“
Dies gilt in zweifacher Hinsicht für AI . Ich glaube, dass es in den kommenden Jahren wichtiger sein wird - als sich mit der Frage zu befassen: „Wie wird man AI  los oder wie kann man sie stoppen?“ - eher wie AI sicher dazu auszunutzen, damit wir als Gesellschaft weiterentwickeln und in großes Unbekannte fortschritten können.

Schließlich haben wir die AI  selbst gefragt, ob sie die Welt erobern kann. Ihre Antwort finden Sie im beigefügten Bild.

Kann AI die Welt erobern?

Szenarien, in denen künstliche Intelligenz (AI) die absolute Kontrolle über die Welt übernehmen würde, werden oft in Science-Fiction-Geschichten ausgearbeitet und sind eher Teil der Fiktion als der realen Welt. Es ist jedoch wichtig, einige wichtige Punkte zu verstehen:

  1. Grenzen aktueller AI: Aktuelle künstliche Intelligenz ist auf bestimmte Aufgaben und Bereiche wie Datenanalyse, Bilderkennung oder das Fahren autonomer Fahrzeuge beschränkt. AI verfügt nicht über Bewusstsein oder Selbstwahrnehmung und ist nicht in der Lage, autonome Entscheidungen zu treffen.
  2. Schutzmaßnahmen: Wissenschaftler und Ingenieure versuchen, AI mit Schutzmaßnahmen zu entwickeln, die Missbrauch oder unkontrolliertes Verhalten verhindern sollen. Mit der Entwicklung der AI gehen Debatten über ethische Richtlinien und Vorschriften einher, die die Gesellschaft vor potenziellen Risiken schützen sollten.
  3. Kontrolle und Verantwortung: Es liegt an Menschen und Organisationen, die Kontrolle über AI-Systeme zu behalten und sicherzustellen, dass diese Systeme dem Gemeinwohl dienen. Die menschliche Aufsicht stellt die Verantwortung für die AI dar.
  4. Gesellschaftlicher Konsens: Die Entwicklung und der Einsatz von AI sollten im Einklang mit gesellschaftlichen Werten und demokratischen Prozessen stehen. Entscheidungen über den Einsatz von AI sollten im Rahmen politischer und ethischer Diskussionen erfolgen.
  5. Echte Bedrohungen: Obwohl es wichtig ist, das potenzielle Risiko eines AI-Missbrauchs im Auge
    zu behalten, sind aktuelle AI-Technologien nicht in der Lage, ohne menschliche Aufsicht und Erlaubnis die vollständige Kontrolle über die Welt zu übernehmen.

Die größten Herausforderungen im Bereich AI sind derzeit eher Fragen zu Ethik, Transparenz, Sicherheit und Schutz der Intimsphäre. Das Hauptziel besteht darin, AI zum Nutzen der Gesellschaft einzusetzen und potenzielle Risiken zu minimieren.

G Regenerate

Autor: Veronika Odrobinová, Jan Nešpor