<?xml version="1.0" encoding="UTF-8" ?>
<rss version="2.0">
    <channel>
      <title>九月杂货店</title>
      <link>https://www.998211.xyz</link>
      <description>最近的10条笔记 on 九月杂货店</description>
      <generator>Quartz -- quartz.jzhao.xyz</generator>
      <item>
    <title>第 14 章 时间上的概率推理</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC14%E7%AB%A0_%E6%97%B6%E9%97%B4%E4%B8%8A%E7%9A%84%E6%A6%82%E7%8E%87%E6%8E%A8%E7%90%86</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC14%E7%AB%A0_%E6%97%B6%E9%97%B4%E4%B8%8A%E7%9A%84%E6%A6%82%E7%8E%87%E6%8E%A8%E7%90%86</guid>
    <description><![CDATA[ 第 14 章 时间上的概率推理 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章讨论概率时序过程的表示和推理，处理随时间变化的不确定性。 核心内容： 时序概率模型基础 隐马尔可夫模型（HMM） 卡尔曼滤波器 动态贝叶斯网络（DBN） 粒子滤波与近似推断 14.1 时序概率模型 ⭐⭐⭐ 马尔可夫假设 一阶马尔可夫假设：给定当前状态，未来与过去独立。 P(Xₜ | X₀:ₜ₋₁) = P(Xₜ | Xₜ₋₁) 时间齐次性：转移模型不随时间变化。 时序模型组成 组件说明转移模型P(Xₜ传感器模型P(Eₜ先验分布P(X₀)：初始状态... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 15 章 概率编程</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC15%E7%AB%A0_%E6%A6%82%E7%8E%87%E7%BC%96%E7%A8%8B</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC15%E7%AB%A0_%E6%A6%82%E7%8E%87%E7%BC%96%E7%A8%8B</guid>
    <description><![CDATA[ 第 15 章 概率编程 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章介绍概率编程语言（PPL），为不确定领域提供富有表达能力的概率知识表示与推断。 核心内容： 关系概率模型（RPM） 开宇宙概率模型（OUPM） 多目标跟踪与数据关联 作为概率模型的程序 15.1 关系概率模型（RPM）⭐⭐⭐ 15.1.1 语法与语义 背景：贝叶斯网络是命题级的，变量集合固定有限。RPM扩展到一阶逻辑。 数据库语义假设： 唯一命名假设 域闭包假设（除命名对象外无其他对象） RPM组成： 组件说明类型声明Customer, Book等函数符... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 16 章 简单决策</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC16%E7%AB%A0_%E7%AE%80%E5%8D%95%E5%86%B3%E7%AD%96</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC16%E7%AB%A0_%E7%AE%80%E5%8D%95%E5%86%B3%E7%AD%96</guid>
    <description><![CDATA[ 第 16 章 做简单决策 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章介绍如何将效用理论与概率论结合，构建在不确定性下进行理性决策的智能体。 核心内容： 期望效用最大化原则 效用理论基础（公理化方法） 效用函数与金钱的效用 多属性效用函数 决策网络（影响图） 信息价值理论 未知偏好与顺从人类 16.1 在不确定性下结合信念与愿望 ⭐⭐⭐ 最大期望效用（MEU）原则 期望效用公式： EU(a) = Σₛ&#039; P(Result(a)=s&#039;) × U(s&#039;) MEU原则：理性智能体选择使期望效用最大... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 17 章 复杂决策</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC17%E7%AB%A0_%E5%A4%8D%E6%9D%82%E5%86%B3%E7%AD%96</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC17%E7%AB%A0_%E5%A4%8D%E6%9D%82%E5%86%B3%E7%AD%96</guid>
    <description><![CDATA[ 第 17 章 做复杂决策 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章讨论在随机环境中进行序贯决策的问题，核心内容是马尔可夫决策过程（MDP）及其扩展。 核心内容： 马尔可夫决策过程（MDP） MDP求解算法（价值迭代、策略迭代） 老虎机问题 部分可观测MDP（POMDP） 17.1 序贯决策问题 ⭐⭐⭐ MDP定义 **马尔可夫决策过程（MDP）**由以下要素组成： 要素符号说明状态集合S所有可能状态动作集合A(s)状态s下的可用动作转移模型P(s’|s,a)在s执行a到达s’的概率奖励函数R(s,a,s’)转移的即时... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 18 章 多智能体决策</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC18%E7%AB%A0_%E5%A4%9A%E6%99%BA%E8%83%BD%E4%BD%93%E5%86%B3%E7%AD%96</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC18%E7%AB%A0_%E5%A4%9A%E6%99%BA%E8%83%BD%E4%BD%93%E5%86%B3%E7%AD%96</guid>
    <description><![CDATA[ 第 18 章 多智能体决策 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章研究环境中存在多个智能体时的决策问题，涵盖博弈论基础和机制设计。 核心内容： 多智能体环境的特性 非合作博弈论 合作博弈论 机制设计（拍卖、投票、议价） 18.1 多智能体环境的特性 ⭐⭐ 18.1.1 单个决策者 多效应器规划：单个智能体管理多个效应器。 多体规划：效应器解耦为独立单元。 分散规划：通信限制使集中不可能。 18.1.2 多决策者 情况说明共同目标协调问题：确保朝同一方向努力个人偏好博弈论领域：考虑其他智能体的偏好 博弈论应用： 智能... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 19 章 概率机器学习</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC19%E7%AB%A0_%E6%A6%82%E7%8E%87%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC19%E7%AB%A0_%E6%A6%82%E7%8E%87%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0</guid>
    <description><![CDATA[ 第 19 章 样例学习 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章介绍机器学习的基础知识，包括监督学习、决策树、线性模型、非参数模型等。 核心内容： 学习的形式（监督、无监督、强化） 决策树学习 模型选择与优化 学习理论（PAC学习） 线性回归与分类 非参数模型 19.1 学习的形式 ⭐⭐ 学习类型 类型说明示例监督学习输入-输出对，学习函数映射图像分类、房价预测无监督学习无显式反馈，学习模式聚类、降维强化学习从奖励/惩罚中学习游戏AI、机器人控制 问题类型 分类：输出为离散类别（晴天/阴天/雨天） 回归：输出为连续数... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 1 章 绪论</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC1%E7%AB%A0_%E7%BB%AA%E8%AE%BA</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC1%E7%AB%A0_%E7%BB%AA%E8%AE%BA</guid>
    <description><![CDATA[ 第 1 章 绪论 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 译者：张博雅、陈坤、田超、顾卓尔、吴凡、赵申剑 审校：张志华 本章概述 本章解释为什么人工智能是最值得研究的课题，并定义人工智能究竟是什么。这是开启人工智能学习之旅的重要准备。 1.1 什么是人工智能 核心定义 人工智能（AI） 不仅涉及理解智能，还涉及构建智能实体——这些智能实体机器需要在各种各样新奇的情况下，计算如何有效和安全地行动。 AI 的重要性 每年创造的价值超过一万亿美元 李开复预测：AI 对世界的影响”将超过人类历史上的任何事物” 研究前沿仍是开放的，为专业人... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 20 章 深度学习</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC20%E7%AB%A0_%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC20%E7%AB%A0_%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0</guid>
    <description><![CDATA[ 第 20 章 概率模型学习 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 本章将学习视为概率推断过程，介绍贝叶斯学习方法、贝叶斯网络参数与结构学习。 核心内容： 贝叶斯学习基础 贝叶斯网络参数学习 贝叶斯网络结构学习 隐变量与EM算法 20.1 统计学习 ⭐⭐⭐ 贝叶斯学习框架 核心思想：基于数据计算每个假设的概率，进行加权预测。 贝叶斯法则： P(hᵢ | d) = α P(d | hᵢ) P(hᵢ) 预测： P(X | d) = Σᵢ P(X | hᵢ) P(hᵢ | d) MAP假设：最大后验假设 h_MAP = arg... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 21 章 强化学习</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC21%E7%AB%A0_%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC21%E7%AB%A0_%E5%BC%BA%E5%8C%96%E5%AD%A6%E4%B9%A0</guid>
    <description><![CDATA[ 第 21 章 深度学习 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 深度学习使用多层神经网络学习复杂函数表示，在计算机视觉、自然语言处理、强化学习等领域取得突破性进展。 核心内容： 前馈神经网络基础 计算图与反向传播 卷积神经网络(CNN) 训练算法与优化 泛化与正则化 循环神经网络(RNN) 无监督学习与迁移学习 深度学习应用 21.1 简单前馈网络 ⭐⭐⭐ 21.1.1 网络作为复杂函数 神经网络结构： 输入层 → 隐藏层 → 输出层 每个单元：加权求和 + 激活函数 单元计算： aⱼ = gⱼ(wᵀx) 其中w为权重，... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item><item>
    <title>第 22 章 自然语言处理</title>
    <link>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC22%E7%AB%A0_%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86</link>
    <guid>https://www.998211.xyz/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-%E7%8E%B0%E4%BB%A3%E6%96%B9%E6%B3%95/%E7%AC%AC22%E7%AB%A0_%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86</guid>
    <description><![CDATA[ 第 22 章 强化学习 书籍：《人工智能：现代方法》第 4 版 作者：Stuart Russell, Peter Norvig 本章概述 强化学习(RL)研究智能体如何通过与环境交互、接收奖励信号来学习最优行为策略，无需显式监督。 核心内容： 被动与主动强化学习 基于模型与无模型方法 值函数学习（TD、Q学习） 探索与利用权衡 函数近似与深度强化学习 策略搜索 学徒学习与逆强化学习 应用（游戏、机器人） 22.1 从奖励中学习 ⭐⭐⭐ 强化学习问题设置 与监督学习的区别： 监督学习：给定输入-输出对(x, y)，学习映射函数 强化学习：通过与环境交互，接收奖励信号，学习最优策略 关键要素： 状... ]]></description>
    <pubDate>Wed, 08 Apr 2026 09:15:00 GMT</pubDate>
  </item>
    </channel>
  </rss>