依存モデル [latex] M [/latex] ということの意味をつかむのが、簡単ではないのかもしれない。ある確率測度に基づいて、条件付独立の公理を設定できる。テキストの(5)-(9)などはそれにあたる。確率から離れて、勝手に[latex]I({\boldsymbol X},{\boldsymbol Z},{\boldsymbol Y})_M[/latex]の真偽をおいたものが依存モデルである。(5)-(9)で成立するものもあれば、しなものもある。条件付独立の公理も、依存モデルの公理のおきかたのひとつにすぎない。つまり、何でもいいから [latex]{\boldsymbol X},{\boldsymbol Z},{\boldsymbol Y}[/latex] という3つ組すべてに対して真偽を割り当てたものが依存モデルである。究極的にいえば、Bayesianネットワークは、確率ではないものも表現できるということになる。依存モデルの公理を用意すればよい。それが条件付独立性の公理と矛盾しても問題がない。ただ、そのような一般的な扱いをする研究者は現在では少ない。
そもそも、AIで使う論理では、含まれているの述語のそれぞれに真偽をつけ、それをモデルとよんでいる。最近は、AIでも論理を勉強しない研究室が増えているかもしれない。20年以上前はシンボリック派といって、記号論理にこだわる人が多かった。そのような方が指導されている研究室では、さほど違和感は無いのかもしれない。
ただ、2章の依存モデルに対して、しつこいくらいの説明があっても良かったかもしれない。読者の方でこの記事を見ていて、少しでも疑問をお持ちの方は、コメントまたはお問い合わせフォームからいただければ(お手数ですが)、どういうご質問でも回答させていただく所存である。