2.1 | Beispiele für wissensbasierte Systeme |
| 2.1.1 Geldabheben am Automaten |
| 2.1.2 Medizinische Diagnose |
2.2 | Wissensbasierte Systeme und Expertensysteme |
2.3 | Eigenschaften von Experten und Expertensystemen |
2.4 | Zur Geschichte wissensbasierter Systeme |
2.5 | Das medizinische Diagnosesystem MYCIN |
2.6 | Aufbau und Entwicklung wissensbasierter Systeme |
| 2.6.1 Architektur eines wissensbasierten Systems |
| 2.6.2 Entwicklung eines wissensbasierten Systems |
3.1 | Formen der Inferenz |
| 3.1.1 Menschliches Schließen und Inferenz |
| 3.1.2 Charakterisierung der Inferenzrelation nach Peirce |
| 3.1.3 Deduktives Schließen |
| 3.1.4 Unsicheres Schließen |
3.2 | Logische Systeme |
| 3.2.1 Signaturen |
| 3.2.2 Formeln |
| 3.2.3 Interpretationen |
| 3.2.4 Erfüllungsrelation |
3.3 | Eigenschaften klassisch-logischer Systeme |
| 3.3.1 Erfüllungsrelation und Wahrheitsfunktionalität |
| 3.3.2 Modelle und logische Folgerung |
| 3.3.3 Inferenzregeln und Kalküle |
| 3.3.4 Korrektheit und Vollständigkeit von Kalkülen |
| 3.3.5 Logisches Folgern durch Widerspruch |
| 3.3.6 Entscheidbarkeitsresultate |
3.4 | Logische Grundlagen: Aussagenlogik |
| 3.4.1 Syntax |
| 3.4.2 Semantik |
| 3.4.3 äquivalenzen und Normalformen |
| 3.4.4 Wahrheitstafeln und Ableitungen in der Aussagenlogik |
3.5 | Logische Grundlagen: Prädikatenlogik 1.Stufe |
| 3.5.1 Signaturen und Interpretationen |
| 3.5.2 Terme und Termauswertung |
| 3.5.3 Formeln und Formelauswertung |
| 3.5.4 äquivalenzen |
| 3.5.5 Ableitungen in der Prädikatenlogik 1.Stufe |
| 3.5.6 Normalformen |
| 3.5.7 Unifikation |
3.6 | Der Resolutionskalkül |
3.7 | Erweiterungen |
3.8 | Wie kommt der Delphin in den Karpfenteich? |
5.1 | Definition des Lernens |
5.2 | Klassifikation der Ansätze zum maschinellen Lernen |
| 5.2.1 Klassifikation gemäß der benutzten Lernstrategie |
| 5.2.2 Klassifikation gemäß dem gelernten Typ von Wissen |
| 5.2.3 Klassifikation gemäß dem Anwendungsbereich |
5.3 | Erlernen von Entscheidungsbäumen |
| 5.3.1 Entscheidungsbäume |
| 5.3.2 Erzeugung von Regeln aus Entscheidungsbäumen |
| 5.3.3 Generieren von Entscheidungsbäumen |
| 5.3.4 Bewertung des Lernerfolges und Anwendungen |
| 5.3.5 Die induktiven Lernverfahren ID3 und C4.5 |
5.4 | Lernen von Konzepten |
| 5.4.1 Eine Konzeptlernaufgabe |
| 5.4.2 Allgemeine Problemstellung |
| 5.4.3 Repräsentation von Beispielen und Konzepten |
| 5.4.4 Lernen von Konzepten als Suchproblem |
| 5.4.5 Versionenräume |
| 5.4.6 Das Versionenraum-Lernverfahren |
| 5.4.7 Anwendungsbeispiel |
| 5.4.8 Eigenschaften des Versionenraum-Lernverfahrens |
| 5.4.9 Konzeptlernen mit Merkmalsbäumen |
5.5 | Data Mining und Wissensfindung in Daten |
| 5.5.1 KDD -- Knowledge Discovery in Databases |
| 5.5.2 Der KDD-Prozess |
| 5.5.3 Data Mining |
| 5.5.4 Assoziationsregeln |
| 5.5.5 Warenkorbanalyse |
7.1 | Die Rolle des nichtmonotonen Schließens in der KI |
7.2 | Monotone vs. nichtmonotone Logik |
7.3 | Truth Maintenance-Systeme |
7.4 | Justification-based Truth Maintenance-Systeme -- JTMS |
| 7.4.1 In's und Out's -- die Grundbegriffe eines JTMS |
| 7.4.2 Der JTMS-Algorithmus |
| 7.4.3 Anwendungsbeispiele |
| 7.4.4 Die JTMS-Inferenzrelation |
7.5 | Assumption-based Truth Maintenance-Systeme -- ATMS |
| 7.5.1 Grundbegriffe |
| 7.5.2 Arbeitsweise eines ATMS |
7.6 | Verschiedene TMS im Vergleich |
7.7 | Ausblicke |
8.1 | Default-Logik nach Reiter |
| 8.1.1 Aussehen und Bedeutung eines Defaults |
| 8.1.2 Die Syntax der Default-Logik |
| 8.1.3 Die Semantik der Default-Logik |
| 8.1.4 Ein operationaler Zugang zu Extensionen |
| 8.1.5 Prozessbäume |
| 8.1.6 Berechnung von Prozessbäumen |
| 8.1.7 Eigenschaften der Reiter'schen Default-Logik |
| 8.1.8 Normale Defaults |
8.2 | Die Poole'sche Default-Logik |
8.3 | Nichtmonotone Inferenzrelationen für Default-Logiken |
8.4 | Probleme und Alternativen |
9.1 | Klassische logische Programme |
9.2 | Anfragen und Antwortsubstitutionen |
9.3 | Resolution von Hornklauseln |
| 9.3.1 SLD-Ableitungen |
| 9.3.2 Berechnete Antwortsubstitutionen |
| 9.3.3 Suchraum bei der SLD-Resolution |
9.4 | Fixpunktsemantik logischer Programme |
9.5 | Erweiterte logische Programme |
9.6 | Die stabile Semantik normaler logischer Programme |
9.7 | Die Antwortmengen-Semantik erweiterter logischer Programme |
9.8 | Stabile Semantik und Antwortmengensemantik |
9.9 | Truth Maintenance-Systeme und Default-Theorien |
9.10 | Erweiterungen der Antwortmengensemantik |
9.11 | Implementationen und Anwendungen |
9.12 | Kriterien zur Beurteilung nichtmonotoner Inferenzoperationen |
9.13 | Rückblick |
10.1 | Motivation und Einführung |
10.2 | DeLP -- Argumentieren mit Regeln |
| 10.2.1 DeLP-Programme und Ableitungen |
| 10.2.2 Argumente und Gegenargumente |
| 10.2.3 Qualitätskriterien für Argumente |
| 10.2.4 Schlagende und blockierende Angriffe |
| 10.2.5 Argumentationsfolgen |
| 10.2.6 Evaluation von Argumentationen |
| 10.2.7 Antwortverhalten von DeLP-Programmen |
10.3 | Abstrakte Argumentationstheorie |
| 10.3.1 Abstrakte Argumentationssysteme |
| 10.3.2 Extensionen |
| 10.3.3 Beispielanwendung: Das stabile Heiratsproblem |
| 10.3.4 Beziehungen zur Reiter'schen Default-Logik |
10.4 | Labelings für abstrakte Argumentationssysteme |
10.5 | Extensionen als Antwortmengen |
11.1 | Planen in der Blockwelt |
11.2 | Logische Grundlagen des Planens |
11.3 | Der Situationskalkül |
| 11.3.1 Aktionen |
| 11.3.2 Situationen |
| 11.3.3 Veränderungen zwischen Situationen |
| 11.3.4 Ausführungsbedingungen und Effektaxiome |
| 11.3.5 Zielbeschreibungen |
11.4 | Probleme |
| 11.4.1 Das Rahmenproblem |
| 11.4.2 Das Qualifikationsproblem |
| 11.4.3 Das Verzweigungsproblem |
11.5 | Plangenerierung im Situationskalkül |
11.6 | Planen mit STRIPS |
| 11.6.1 Zustände und Zielbeschreibungen |
| 11.6.2 STRIPS-Operatoren |
| 11.6.3 Planen mit Vorwärtssuche |
| 11.6.4 Planen mit Rückwärtssuche |
| 11.6.5 Behandlung des Rahmenproblems in STRIPS |
11.7 | Nichtklassische Planungssysteme |
11.8 | Planen mit Antwortmengen |
| 11.8.1 Systeme zur Berechnung von Antwortmengen |
| 11.8.2 Planen mit SMODELS |
| 11.8.3 Behandlung des Rahmenproblems |
11.9 | Autonome Agenten und Anwendungen |
13.1 | Ungerichtete Graphen -- Markov-Netze |
| 13.1.1 Separation in Graphen und probabilistische Unabhängigkeit |
| 13.1.2 Markov-Eigenschaften und Markov-Graphen |
| 13.1.3 Konstruktion von Markov-Graphen |
| 13.1.4 Potential- und Produktdarstellungen |
13.2 | Gerichtete Graphen -- Bayessche Netze |
13.3 | Inferenz in probabilistischen Netzen |
| 13.3.1 Bayes-Netze und Potentialdarstellungen |
| 13.3.2 Der permanente Cliquenbaum als Wissensbasis |
| 13.3.3 Der Algorithmus von Lauritzen und Spiegelhalter |
| 13.3.4 Berücksichtigung fallspezifischer Daten |
13.4 | Bayessche Netzwerke in praktischen Anwendungen |
13.5 | Erlernen Bayesscher Netze aus Daten |
13.6 | Probabilistische Inferenz unter informationstheoretischen Aspekten |
13.7 | Weitere Anwendungen |
| 13.7.1 Proteinklassifikation mittels Hidden Markov Models (HMM) |
| 13.7.2 Herzerkrankungen bei Neugeborenen |
| 13.7.3 Suchterkrankungen und psychische Störungen |