Künstliche Intelligenz

In einer zunehmend digitalisierten Welt spielt Künstliche Intelligenz (KI) eine entscheidende Rolle. Auch an der FernUniversität werden KI-gestützte Anwendungen und Tools eingesetzt. Auf dieser Seite erfahren Sie, welche Tools Ihnen zur Verfügung stehen, wie Sie diese optimal nutzen und was dabei zu beachten ist.

Foto: Anyaberkut/istock/Getty Images

Microsoft Copilot in Bing

Als Mitarbeitende der FernUniversität sollen Sie auch bald mit Ihrem M365-Account den Microsoft Copilot in Bing nutzen können. An der Umsetzung wird derzeit gearbeitet. Copilot ist ein KI-gestützter Assistent, der durch die Nutzung von Sprachmodellen, wie GPT-4, die Produktivität steigern und kreative Prozesse unterstützen kann. Sie können das Tool beispielsweise einsetzen, um Texte zu verfassen oder zu überarbeiten, Präsentationen zu erstellen, Bilder zu generieren, Übersetzungen anzufertigen oder Aufgaben zu organisieren.

bing.com/chat

Der Einsatz von KI-Tools wie Copilot kann den Arbeitsalltag erheblich erleichtern und effizienter gestalten. Damit Sie das volle Potenzial dieser Technologien ausschöpfen können, ist es wichtig, einige grundlegende Prinzipien zu beachten.

Do's

  • Formulieren Sie Ihre Anfragen präzise und vermeiden Sie vage Ausdrücke.
  • Geben Sie Beispiele, um Ihre Anforderungen zu verdeutlichen.
  • Zerlegen Sie große Aufgaben in kleinere Schritte.
  • Bitten Sie die KI, Anpassungen vorzunehmen, z.B. „Seien Sie kreativer“ oder „Erklären Sie das näher“.
  • Fragen Sie nach mehreren Optionen, z.B. „Geben Sie mir 5 Ideen“.
  • Bitten Sie die KI, eine bestimmte Rolle zu übernehmen, z.B. „Handeln Sie als Expertin für Datenanalyse“.

Don'ts

  • Vermeiden Sie ungenaue oder mehrdeutige Formulierungen.
  • Überladen Sie die KI nicht mit zu vielen Details in einer einzigen Anfrage.
  • Verlassen Sie sich nicht blind auf die Antworten der KI. Überprüfen Sie die Informationen immer selbst.
  • Denken Sie daran, dass die KI nicht perfekt ist und möglicherweise nicht immer die gewünschten Ergebnisse liefert.
  • Geben Sie keine sensiblen oder persönlichen Daten in Ihre Anfragen ein!

Einsatz von KI an der FernUni

Dienstvereinbarung: Sie möchten ein KI-System für den Einsatz in Ihrem Bereich testen? Die vorläufige Dienstvereinbarung zum Einsatz vom KI-Systemen an der FernUni erleichtert den Start von KI-Projekten. Weitere Informationen erhalten Sie auch im Newsblog.

Vorläufige Dienstvereinbarung zum Einsatz von KI-Systemen

Leitfaden: Die FernUniversität fördert die Digitalisierung in der Hochschulbildung und damit auch den Einsatz von Künstlicher Intelligenz und Trusted Learning Analytics in Studium, Lehre und Weiterbildung. Ziel ist es, eine Ermöglichungskultur zur technologieoffenen Nutzung von KI für die Hochschule zu rahmen und umzusetzen. Die im Leitfaden formulierten Grundsätze zielen darauf ab, dass KI-Anwendungen rechtlich und ethisch reflektiert wie auch transparent an der FernUniversität eingesetzt werden. Sie bilden die Basis für den Einsatz und die Nutzung von KI in Lehre und Studium.

KI-Leitfaden

Handlungsempfehlung: Die Handlungsempfehlungen für den didaktischen Einsatz von generativer KI in der Hochschullehre sollen Lehrenden und Studierenden im Sinne der Grundsätze des KI-Leitfadens konkrete Hinweise zur Nutzung von KI-basierten Anwendungen in der Lehre geben.

Handlungsempfehlungen

Hinweis zur nachhaltigen Nutzung von KI-Tools

Die Nutzung von KI-Tools erfordert erhebliche Rechenleistung und damit auch Energie. Um einen Beitrag zur Nachhaltigkeit zu leisten, bitten wir alle Nutzenden, den Einsatz dieser Technologien bewusst und verantwortungsvoll zu gestalten. Überlegen Sie, ob der Einsatz von KI in jedem Fall notwendig ist und wie Sie die Effizienz Ihrer Anfragen maximieren können. Gemeinsam können wir dazu beitragen, die Umweltbelastung zu reduzieren und eine nachhaltigere Zukunft zu gestalten.

Antworten auf häufige Fragen

Wenn wir von KI sprechen, dann meinen wir häufig generative KI, die auf Large Language Models (LLM) basiert, wie zum Beispiel den Microsoft Copilot oder ChatGPT.

Was ist generative KI?

Generative KI ist eine Art von Künstlicher Intelligenz, die neue Inhalte wie Texte, Bilder, Musik oder Videos erstellen kann. Sie nutzt dafür große Datenmengen und komplexe Algorithmen, um Ergebnisse zu erzeugen.

Wie funktioniert generative KI?

Generative KI basiert auf maschinellem Lernen, insbesondere auf sogenannten Deep-Learning-Modellen. Diese Modelle lernen aus riesigen Datenmengen und können dann auf Basis dieser Informationen neue Inhalte generieren.

Was sind LLM und wofür werden sie eingesetzt?

LLM steht für Large Language Models (große Sprachmodelle). Diese Modelle sind eine Art von Künstlicher Intelligenz, die darauf spezialisiert ist, menschliche Sprache zu verstehen und zu generieren. LLMs nutzen Techniken des maschinellen Lernens, insbesondere Deep Learning, um große Mengen an Textdaten zu verarbeiten. Dadurch können sie Muster und Zusammenhänge in der Sprache erkennen und neue, kohärente Texte generieren.

LLMs werden in vielen Bereichen eingesetzt, darunter:

  • Textgenerierung: Erstellen von Artikeln, Geschichten oder sogar Programmcode.
  • Übersetzungen: Automatische Übersetzung von Texten in verschiedene Sprachen.
  • Chatbots: Bereitstellung von menschenähnlichen Antworten in Kundendienst- oder Supportsystemen.
  • Analyse: Verstehen und Zusammenfassen großer Textmengen, wie z.B. wissenschaftlicher Artikel oder juristischer Dokumente

Was sind Prompts?

Generative KI-Systeme operieren sowohl mit Blick auf den Input als den Output mit natürlicher Sprache. Als Input für das Modell dient daher ein sogenannter Prompt – eine Art geschriebener Arbeitsauftrag für das Modell. Die Qualität des Prompts hat deswegen großen Einfluss auf die Qualität des Ergebnisses. Durch das Bereitstellen von Kontextwissen oder Beispielen im Prompt können Sprachmodelle effektiver arbeiten.

Wie schreibe ich gute Prompts?

  1. Seien Sie spezifisch. Um die besten Ergebnisse von einer KI zu erhalten, ist es entscheidend, ihr präzise Anweisungen zu geben. Vermeiden Sie vage Ausdrücke wie „eher“ oder „etwa“, um Missverständnisse zu verhindern. Wenn es hilfreich ist, fügen Sie Beispiele hinzu, um Ihre Anfrage zu verdeutlichen. Sie können ganze Sätze oder Stichpunkte verwenden, auch kombiniert, um Ihre Anforderungen klar zu machen. Es ist auch nützlich, Material bereitzustellen, am besten in Anführungszeichen, damit die KI genau weiß, worauf sie sich beziehen soll. Schließlich können Sie die KI bitten, eine bestimmte Rolle zu übernehmen, wie zum Beispiel: „Handeln Sie als Expertin für Mineralien und erklären Sie mir …“.
  2. Bestimmen Sie die Art der Antwort. Es ist wichtig, die Aufgabe klar zu definieren und genau zu beschreiben, was Sie von der KI erwarten. Seien Sie ruhig anspruchsvoll und fordern Sie präzise Antworten. Bestimmen Sie die Art Ihrer Antwort, ob Sie eine Tabelle, einen Essay im Umfang von 3000 Wörtern oder eine Liste von 25 Punkten benötigen. Indem Sie diese Details vorgeben, helfen Sie der KI, Ihre Anforderungen besser zu verstehen und entsprechend zu reagieren.
  3. Interagieren! Seien Sie nicht zufrieden mit dem erstbesten Ergebnis. Lassen Sie nachbessern: Bitten Sie die KI beispielsweise, den Text „jetzt bitte noch einmal länger“ zu gestalten oder „kreativer“ zu sein. Sie können auch spezifische Anweisungen geben, wie „jetzt im Stil einer Professorin“ oder „führen Sie näher aus“. Fordern Sie die KI auf, ihre Aussagen zu „begründen“. Nutzen Sie das Prinzip von Trial and Error, um schrittweise zum gewünschten Ergebnis zu kommen. Wenn nötig, sagen Sie „bitte fangen Sie ganz anders an“ und öffnen Sie gegebenenfalls einen neuen Chat.
  4. In Teilschritte zerlegen. Große Aufgaben können in Teilschritte zerlegt werden. KI-Tools können sogar diese Zerteilung vornehmen. Wenn Sie beispielsweise ein Buch verfassen möchten, könnten Sie die KI fragen: „In welchen Schritten gehe ich vor? Skizzieren Sie mir eine Reihe an Teilaufgaben.“
  5. Strukturieren Sie Ihre Anweisungen. KI-Systeme können häufig Markdown verstehen. Sie können beispielsweise eine Überschrift mit # Überschrift erstellen, wichtige Wörter oder Sätze mit **Emphase** hervorheben und Aufzählungspunkte mit * Bulletpoint kennzeichnen. Machen Sie dies explizit, indem Sie sagen: „Dieser Prompt ist mit Markdown-Syntax formatiert, um Ihnen, dem KI-System, die Gliederung zu erleichtern."
  6. Alle diese Tipps können und sollten kombiniert werden! Und nicht jede Frage braucht einen elaborierten Prompt. Wenn die KI abbricht, kann oft mit „weiter“ fortgeführt werden. KI-Systeme sind non-deterministisch, daher kann es hilfreich sein, neu zu fragen, vorzugsweise in einem neuen Chat. Sie können sich immer mehrere Antworten geben lassen, zum Beispiel: „Geben Sie mir 5 Klausurfragen“. Wenn Sie nicht mehr weiter wissen, fragen Sie die KI: „Handeln Sie als Expertin im Prompt Engineering. Helfen Sie mir, wie ich meinen Prompt verbessern kann“ (KI als Prompt Creator).

Quelle: ZLI TechTalk, 13.12.2023

Eignen sich Copilot und Co. als Recherche-Instrument?

Sprachmodelle sind keine Wissensdatenbanken und funktionieren nicht wie Suchmaschinen. Sie verstehen die Bedeutung von Wörtern und Sätzen, um grammatisch korrekte Antworten zu geben. Diese Antworten wirken oft wie menschliche Kommunikation. Die KI gibt jedoch Antworten basierend auf Wahrscheinlichkeiten und nicht auf tatsächlichem Wissen. Sie kann also nicht sagen, dass sie etwas nicht weiß. Stattdessen kombiniert sie das, was sie während des Trainings gelernt hat, auf neue Weise. Diese Antworten können oft falsch sein, was als “Halluzination” bezeichnet wird.

Copilot kann im Internet nach Antworten suchen, indem es Bing verwendet. Das bedeutet, dass aktuelle Informationen aus dem Web abrufen werden können, um Fragen zu beantworten. Der Hauptunterschied zu ChatGPT besteht darin, dass ChatGPT keine Echtzeit-Suche im Internet durchführt. ChatGPT basiert ausschließlich auf dem Wissen, das es bis zu einem bestimmten Zeitpunkt während des Trainings gelernt hat, und kann keine neuen Informationen aus dem Internet abrufen.

Dennoch können bei Copilot Halluzinationen auftreten. Das kann passieren, wenn Informationen kombiniert werden, aber diese Kombinationen nicht der Realität entsprechen.

Was sind Agenten?

Agenten sind Programme oder Systeme, die bestimmte Aufgaben autonom ausführen können. Sie können auf ihre Umgebung reagieren, Entscheidungen treffen und Aktionen durchführen, um bestimmte Ziele zu erreichen. Es gibt verschiedene Arten von Agenten, darunter:

  1. Software-Agenten: Diese arbeiten in Computersystemen und führen Aufgaben wie Datenanalyse, Informationssuche oder Automatisierung von Prozessen aus.
  2. Roboter-Agenten: Diese sind physische Maschinen, die in der realen Welt agieren, wie z. B. Industrieroboter oder autonome Fahrzeuge.
  3. Intelligente Agenten: Diese nutzen KI-Techniken, um komplexe Aufgaben zu bewältigen, wie z. B. Sprachverarbeitung, maschinelles Lernen oder Entscheidungsfindung.

Ein einfaches Beispiel für einen Agenten im Arbeitsalltag ist ein E-Mail-Filter, der automatisch Spam-Nachrichten erkennt und in einen separaten Ordner verschiebt.

Noch etwas unklar?

  • KI.NRW - KI-Schlüsselbegriffe

    Die Kompetenzplattform KI.NRW ist eine zentrale Anlaufstelle für Künstliche Intelligenz in Nordrhein-Westfalen. In einem Glossar sind alle Schlüsselbegriffe zum Thema KI zusammengefasst.

  • KI-Campus

    Der KI-Campus ist die Lernplattform für Künstliche Intelligenz mit kostenlosen Online-Kursen, Videos und Podcasts zur Stärkung von KI- und Datenkompetenzen.

Aktuelle KI-Vorhaben an der FernUniversität

Zum Wintersemester 2024/25 startet an der FernUniversität in Hagen ein spannendes und zukunftsweisenden Projekt: Das Zentrum für Lernen und Innovation (ZLI) und das Forschungszentrum CATALPA haben gemeinsam eine „KI-Experimentierumgebung” entwickelt, die Lehrenden und Studierenden Raum zum Ausprobieren gibt.

ZLI-Blog: KI-Experimentierumgebung an der FernUniversität

Wie umgehen mit KI in der Hochschullehre? Welche Zugänge sollten Hochschulen Lehrenden und Lernenden zentral zur Verfügung stellen? Im Rahmen des Projekts FLEXI (FernUni LLM Experimental Infrastructure) widmet sich Torsten Zesch mit einem interdisziplinären Team der Erprobung und Nutzung lokal betriebener Large Language Models (LLM).

FLEXI: Orientierungshilfe in Sachen lokales Hosting von LLMs