Next: Kosten
Up: Wissensbeschaffung
Previous: Einbinden der Entscheidungsbäume
Das Bayessche Netz erhält über einen Editor seine
Wahrscheinlichkeiten und bedingten Wahrscheinlichkeiten. Dieser
Vorgang des Eintragens kann auch als Lernen bezeichnet werden.
Lernen ist dabei ein semi-automatisches Verfahren, um
ein Modell zu konstruieren oder zu modifizieren. Unter qualitativem
Lernen versteht man die Konzeption und die Erstellung der Struktur eines
Netzmodells. Im Gegensatz dazu steht das quantitative Lernen, das die
Spezifikation der bedingten Wahrscheinlichkeiten betrifft.
Die Abschätzung dieser bedingten Wahrscheinlichkeiten (im voraus) ist
immer subjektiv.
Die Experten weisen den Knoten des Netzes, die keine
Vorgänger besitzen, sogenannte a priori Wahrscheinlichkeiten zu.
Für jeden weiteren Knoten wird eine bedingte Wahrscheinlichkeitstabelle
erstellt, in der jeder Knoten mehrere verschiedene Zustände besitzen
kann, und die Vorgängerknoten die Bedingungen dafür darstellen. Dies
wird in einer Tabelle berücksichtigt, wie es in Tabelle 4.1 zu sehen
ist. Die Abhängigkeiten werden dann durch die Werte der bedingten
Wahrscheinlichkeiten repräsentiert.
In der Bestimmung dieser Wahrscheinlichkeiten werden den Knoten für
jede Kombination in der Tabelle Wahrscheinlichkeitswerte zugewiesen.
Wahrscheinlichkeiten, die die Experten aus ihrem Erfahrungsschatz
bestimmen können, werden von ihnen eingetragen.
Für die restlichen besteht die Anforderung an das Werkzeug bzw. den
Editor im Entwurf der Bayesschen Netze, für das Ausfüllen der
Wahrscheinlichkeitstabellen einen Algorithmus zur Verfügung zu
stellen. Dieser fragt die modellierenden Experten, welche
Kombinationen und Abhängigkeiten im Expertenwissen auf keinen Fall
zugelassen sind und trägt die bedingten Wahrscheinlichkeiten mit
einer Sicherheit (Evidenz) von 0% automatisch ein.
Next: Kosten
Up: Wissensbeschaffung
Previous: Einbinden der Entscheidungsbäume
Copyright Munich Network Management Team