Mustafa Algan ist wissenschaftlicher Mitarbeiter im österreichweit einzigartigen Bachelor-Studiengang Robotik an der FH Wiener Neustadt. Der Umgang mit künstlicher Intelligenz steht bei ihm sowohl in der Lehre, als auch bei Forschungsprojekten an der Tagesordnung.
„Wir unterscheiden grundsätzlich zwischen schwacher und starker künstlicher Intelligenz. Der wesentliche Unterschied ist, dass schwache künstliche Intelligenz auf ihr von Anfang an festgelegtes Kerngebiet beschränkt ist, während starke künstliche Intelligenz auch außerhalb der zunächst vorgegebenen Grenzen lernen kann“, erklärt Algan.
Daten, Daten und nochmals Daten
Auch wenn Tools wie Chat GPT oder die neuesten Versionen von Bildbearbeitungsprogramme bereits Erstaunliches leisten können – die Programme machen immer noch viele Fehler. Woran liegt das? „Um ein solches Programm wirklich alltagstauglich machen zu können, braucht es eine unfassbar große Menge an Daten. Nachdem sich viele Dinge täglich ändern, müsste man ein Programm wie Chat GPT wahrscheinlich rund um die Uhr updaten und mit neuen Daten füttern“, meint der Experte.
Doch es stellt sich nicht nur die Frage der Machbarkeit, auch die Motive von Entwicklern spielen eine wesentliche Rolle – ist es doch maßgeblich, mit welchen Informationen eine künstliche Intelligenz gefüttert wird. Durch die Art und Weise, wie Informationen bereitgestellt werden, kann schnell der Eindruck absoluter Wahrheiten entstehen. „Das Wording von Chat GPT ist sehr überzeugend. Wenn man als User nicht im Hinterkopf hat, dass Informationen nicht einfach ohne zu hinterfragen geglaubt und übernommen werden kann, wird das Ganze gefährlich“, so Algan.