„ChatGPT“ kann mit künstlicher Intelligenz Texte erstellen, die sich lesen, als wären sie von einem Menschen geschrieben. Die Vertreter von Autoren kritisieren, dass „ChatGPT“ bestehende Werke verfälschen, verwässern und kopieren könne. Italien hat es sogar sperren lassen. Für den Informatiker Stephan Winkler von der Fachhochschule Hagenberg bringen Verbote nichts: „Ich glaube nicht, dass sich das noch aufhalten lässt. Wir haben es hier mit einer Technologie zu tun, die über viele Jahre verbessert wurde.“
„Nützliche Anwendungsgebiete sicherstellen“
Jetzt sollte es eher darum gehen sicherzustellen, wie man sie nützlich einsetzen kann, so Winkler: „Wir brauchen als Gesellschaft natürlich Regeln, wie wir mit dieser Technologie umgehen. Die wirklichen Regularien dazu müssen von der Politik kommen.“
Sinnvoll eingesetzt könnten Programme wie „ChatGPT“ etwa helfen, komplexe technische Vorgänge einfach zu erklären oder große Wissensgebiete verständlich zusammenzufassen. Das Aufsehen rund um die Programme ist entstanden, weil erstmals ein Programm mit künstlicher Intelligenz der breiten Öffentlichkeit zugänglich gemacht wurde.