Kürzlich habe ich in der NZZ vom 8. Oktober 2024 einen Artikel von Mischa Senn gelesen, der mich zum Nachdenken angeregt hat. Den Beitrag fand ich in gewisser Weise inspirierend, da er eine neue Perspektive auf den Umgang mit Falschinformationen in den #Medien aufzeigt. Besonders in sozialen Netzwerken und bei durch künstliche Intelligenz generierten Inhalten wird die bewusste Unterscheidung von Wahrheit und Unwahrheit immer schwieriger. Senn unterbreitet in seinem Artikel einige Vorschläge, die uns zu einem grundsätzlich neuen Ansatz der Medienkompetenz führen könnten: Einer „Unrichtigkeitsvermutung“ gegenüber medialen Inhalten. Diesen Gedankengang möchte ich weiterführen, ergänzt durch einen Ansatz von Cal Newport, der uns hilft, unseren Nachrichtenkonsum qualitativ zu verbessern.
Wir hören es immer wieder: Erfolgreiche CEOs sagen, dass das Geheimnis ihres Erfolgs darin liegt, „Nein“ zu sagen. Influencer raten uns, dieses oder jenes Produkt zu kaufen, weil sie es angeblich selbst lieben. Doch was für sie funktioniert, muss nicht automatisch für dich passen. Pauschale Ratschläge ohne Berücksichtigung deines eigenen Kontextes können sogar gefährlich sein. Dieser Beitrag wirft einen kritischen Blick darauf, warum es so wichtig ist, Ratschläge zu hinterfragen – egal ob sie von einer erfolgreichen CEO oder einem beliebten Influencer kommen.
Wie es der Zufall so will, erschien am selben Tag, an dem ich meinen Beitrag darüber schrieb, ob Künstliche Intelligenz kreativ sein kann, auch ein Podcast zu dem Thema. In der Reihe „Hörsaal“ von Dlf Nova referiert die Philosophin Dorothea Winter von der Humanistischen Hochschule Berlin über die Frage, ob #KI Kunst produzieren kann. Ich fand die Podcast-Folge sehr spannend und möchte hier darum kurz auf die Argumentation von Winter eingehen und anschliessend unsere Gemeinsamkeiten und Differenzen herausarbeiten. Kaum war mein Beitrag erschienen, wurde ich nämlich auch schon auf die Podcast-Folge angesprochen. Aufmerksame Leserinnen und Leser haben zudem schon bemerkt, dass Kreativität und Kunst (in unserem modernen ästhetischen Verständnis) nicht dasselbe sind, wir also offenbar einen anderen Zugang gewählt haben.
Die rasante Entwicklung der Künstlichen Intelligenz (KI) wirft viele Fragen auf, darunter auch die nach ihrer Fähigkeit zur Kreativität. Kann eine Maschine wirklich kreativ sein, oder ist sie nur ein Werkzeug in der Hand des Menschen? In diesem Blogbeitrag versuche ich, unterschiedliche Perspektiven auf diese Frage zu beleuchten und dabei auch den Begriff der „Kreativität“, der dabei die Hauptrolle spielt, näher zu betrachten.
#ChatGPT und andere KI-Tools spielen eine zunehmend wichtige Rolle bei der Lösung komplexer Aufgaben. Obwohl sie das Potenzial haben, den Lernprozess zu beschleunigen und innovative Lösungen zu generieren, birgt ihre Nutzung auch Risiken. Daher ist es entscheidend, eine kritische Auseinandersetzung mit den Grenzen und Möglichkeiten von #KI Assistenten zu führen, um eine Abhängigkeit zu vermeiden und gleichzeitig ihre Vorteile optimal zu nutzen. Wann ist der Einsatz von ChatGPT also sinnvoll und wann nicht?
Heute, am 14. Februar, ist „I Love Free Software Day“. Für mich eine Gelegenheit, kurz die Bedeutung von Open-Source-Software zu würdigen. Als Nutzerinnen und Nutzer sollten wir verstehen, warum #OpenSource eine Bereicherung für uns persönlich und für die Gesellschaft als Ganzes ist. Nicht vergessen sollten wir dabei aber die Menschen, die das Ganze mit ihrer Freiwilligenarbeit erst möglich machen. Ihnen ein dickes Dankeschön.
Christian Nitsche, Chefredaktor des Bayerischen Rundfunks (BR) wirft abschliessend in einem Kommentar zum Thema Künstliche Intelligenz eine vermeintlich existenzielle Frage auf: Verlieren wir durch die rasante Entwicklung der #KI unsere Selbstbestimmung? Entmenschlichen wir uns gar? Ich bin da anderer Meinung, unter Vorbehalt.
Als #KI Sprachmodell ist #ChatGPT in der Lage, eine Vielzahl von Aufgaben auszuführen, z.B. Texte zu übersetzen, Fragen zu beantworten und sogar Programmcode zu erstellen. Aufgrund seiner beeindruckenden Fähigkeiten wurde ChatGPT schnell zu einem beliebten Werkzeug, von Chatbots bis hin zur Erstellung von Inhalten. Doch trotz seiner Fähigkeiten ist ChatGPT nicht ohne Einschränkungen. ChatGPT hat Schwächen und Herausforderungen, die seine Leistung und Genauigkeit beeinträchtigen. Passend dazu hat mir der Youtube-Algorithmus kürzlich ein Video empfohlen, dessen Inhalt ich künftig in meinen Unterricht einbauen werde und den ich hier kurz vorstellen möchte.
In einem kürzlich erschienenen Beitrag habe ich über die Beeinflussbarkeit des #Microsoft GPT Chatbots mittels Prompt Injection geschrieben. Am Ende stellte ich die Frage, ob die Ähnlichkeit zwischen der Überlistung eines Menschen und der Überlistung eines Sprachmodells nur Zufall ist oder ob mehr dahinter steckt. Kurze Zeit später antwortete das #Fediverse tatsächlich mit interessanten Einsichten.
Jetzt ist es also so weit, ich muss auch einige Gedanken zum aktuellen Hype um „Künstliche Intelligenzen“ wie #ChatGPT und Co. zu Blog bringen. Im folgenden Beitrag soll es aber nicht darum gehen, wie generative Transformer funktionieren, warum sie per se schlecht sind oder wie man sie doch sinnvoll einsetzen könnte. Das können und haben andere bereits besser getan. Vielmehr möchte ich das Feld um eine Frage philosophischer Natur erweitern: Können wir aus dem Verhalten der #KI auch Rückschlüsse auf uns Menschen ziehen? Und wenn ja, welche?