第1章:前深度学习时代与早期探索 (Pre-2016)

在深度学习彻底改变自动驾驶之前,这个领域已经积累了数十年的技术沉淀。从DARPA挑战赛的荒漠试验场,到Google秘密车库里的改装普锐斯,再到德国高速公路上的Mercedes S-Class,每一步都在为即将到来的AI革命奠定基础。

1.1 DARPA挑战赛的遗产 (2004-2007)

1.1.1 Grand Challenge - 荒漠中的第一次尝试

2004年3月13日,莫哈韦沙漠,15支队伍的自动驾驶车辆在起跑线上整装待发。这是DARPA Grand Challenge的第一届比赛,142英里的沙漠赛道,没有一辆车完成。表现最好的卡内基梅隆大学的Sandstorm只跑了7.4英里就撞上了围栏。

DARPA启动这个挑战赛的背景值得深思。2001年,美国国会授权要求到2015年三分之一的军用地面车辆实现无人化。DARPA选择了开放竞赛而非传统的政府合同模式,奖金仅100万美元,却吸引了来自大学、企业和个人发明家的广泛参与。

第一届比赛的失败案例充满教训:

  • Carnegie Mellon的Sandstorm:在一个发夹弯道上,GPS信号反射导致定位错误,车辆冲出赛道
  • SciAutonics II:传感器被沙尘遮蔽,误将阴影识别为障碍物,不断急刹车直到卡死
  • Caltech的Bob:铁丝网缠住了车轮,暴露了传感器对细小障碍物的盲区
  • Digital Auto Drive的Speedy:起跑15英尺后就撞上了混凝土护栏,成为最短命的参赛者
2004 DARPA Grand Challenge 结果
┌────────────────────────────────────────────────┐
│ 排名 │ 团队          │ 车辆        │ 里程(英里) │
├────────────────────────────────────────────────┤
│ 1    │ CMU          │ Sandstorm   │ 7.40      │
│ 2    │ SciAutonics  │ SCIAUTONICS │ 6.70      │
│ 3    │ ENSCO        │ DAVID       │ 6.00      │
│ 4    │ Palos Verdes │ Palos Verde │ 5.20      │
│ 5    │ CMU          │ H1ghlander  │ 5.00      │
└────────────────────────────────────────────────┘

尽管结果惨淡,但这次比赛点燃了整个行业的热情。各团队迅速总结经验:

  • 感知不足:2D激光雷达无法准确识别地形
  • 定位漂移:纯GPS/INS在峡谷地带信号丢失
  • 规划保守:基于规则的路径规划过于僵化

1.1.2 技术栈的快速迭代 - 2005年的突破

仅仅18个月后,2005年10月,第二届Grand Challenge见证了历史性突破。Stanford的Stanley率先冲过终点,5辆车完成全程。

关键技术突破:

  1. 3D激光雷达:Velodyne HDL-64E成为标配
  2. 概率机器人学:Sebastian Thrun的概率SLAM
  3. 机器学习初探:用AdaBoost训练地形分类器

Stanley的创新之处: Stanford团队采用了"自适应视觉"策略,这在当时是革命性的。系统会实时学习激光雷达标记为"可通行"的地面纹理,然后用相机在更远距离识别相似纹理。这种在线学习方法让Stanley能够以更高速度通过沙漠地形。

Stanley自适应地形学习算法

1. 激光雷达标注 (0-20m)
   - 几何分析:高度差<15cm → 可通行
   - 建立地面真值标签

2. 视觉特征提取 (20-70m)
   - 颜色直方图 (HSV空间)
   - 纹理特征 (Gabor滤波器)
   - 128维特征向量

3. 在线分类器训练
   - AdaBoost,100个弱分类器
   - 每秒更新10次
   - 滑动窗口:最近300帧

4. 速度自适应
   - 高置信度 → 35mph
   - 低置信度 → 15mph
   - 未知区域 → 5mph

CMU的H1ghlander - 不同的技术路线: 卡内基梅隆选择了更保守但稳定的策略,使用预先标注的卫星图像和详细的地形数据库。他们的"形态学"算法通过分析地形的宏观结构来规划路径,避开河床、陡坡等危险区域。虽然最终输给了Stanley,但这种方法的鲁棒性更高。

Stanley技术架构 (Stanford, 2005)
┌─────────────────────────────────────────┐
│            感知层 (Perception)           │
│  • 5x SICK激光雷达 (地面扫描)            │
│  • 1x Velodyne激光雷达 (360°环境)       │
│  • 单目相机 (道路检测)                   │
│  • 毫米波雷达 (障碍物)                   │
├─────────────────────────────────────────┤
│         定位与建图 (Localization)         │
│  • GPS/INS组合导航                       │
│  • 轮速计里程计                          │
│  • 概率地图匹配                          │
├─────────────────────────────────────────┤
│         规划决策 (Planning)              │
│  • A*全局路径规划                        │
│  • 动态窗口局部规划                      │
│  • 基于规则的行为决策                    │
└─────────────────────────────────────────┘

1.1.3 Urban Challenge - 从荒漠到城市

2007年11月3日,加州Victorville的George空军基地,Urban Challenge拉开帷幕。这次比赛的复杂度远超前两届:60英里的城市环境,需要遵守交规、处理十字路口、完成超车和泊车,还有50辆人类驾驶的车辆作为移动障碍物。

比赛的技术挑战

  1. 动态环境感知:需要跟踪多个移动目标,预测其行为意图
  2. 交通规则理解:四向停车标志的优先权、环岛通行、并道礼让
  3. 实时重规划:道路施工、临时障碍、错过转弯后的恢复
  4. 异常处理:其他车辆违规、传感器失效、GPS信号丢失

获胜的CMU Boss系统展示了当时的技术天花板:

Boss系统规格 (CMU, 2007)
硬件配置:

- 11个激光雷达 (包括1个Velodyne HDL-64E)
- 5个毫米波雷达
- 2个高精度GPS/IMU
- 计算平台:10台Core2 Quad服务器
- 总功耗:3000W
- 传感器成本:>$500,000

软件架构:
┌──────────────────────────────────┐
│     Mission Planning             │
│   (任务规划:路网级决策)          │
└──────────────────────────────────┘
           ↓
┌──────────────────────────────────┐
│     Behavioral Executive         │
│   (行为执行:车道选择/换道决策)    │
└──────────────────────────────────┘
           ↓
┌──────────────────────────────────┐
│     Motion Planning              │
│   (运动规划:轨迹生成)            │
└──────────────────────────────────┘

1.1.4 DARPA挑战赛的技术遗产

DARPA挑战赛虽然结束了,但它培养的人才成为了自动驾驶行业的中坚力量:

| 参赛者 | DARPA时期角色 | 后续去向 |

参赛者 DARPA时期角色 后续去向
Sebastian Thrun Stanford队长 Google X创始人,Udacity创始人
Chris Urmson CMU技术负责人 Google自动驾驶负责人,Aurora CEO
Bryan Salesky CMU软件负责人 Argo AI CEO
Dave Ferguson CMU规划算法 Google自动驾驶,Nuro创始人
Anthony Levandowski 510 Systems Google自动驾驶,Uber ATG
Mike Montemerlo Stanford SLAM专家 Google自动驾驶核心成员

技术传承与演进

DARPA挑战赛奠定的技术架构至今仍是自动驾驶的基础:

DARPA技术栈 (2007) → 现代系统 (2024)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
感知层:
• 激光雷达点云处理 → BEV感知、3D目标检测
• 相机+雷达融合 → 多模态Transformer
• 手工特征提取 → 深度学习特征

定位层:
• GPS+IMU+里程计 → 多源融合定位
• 点云地图匹配 → 语义地图匹配
• 粒子滤波 → 图优化SLAM

预测层:
• 轨迹外推 → 深度学习轨迹预测
• 规则意图识别 → 交互式预测
• 静态环境假设 → 动态场景理解

规划层:
• A*/RRT路径搜索 → 神经网络规划
• 有限状态机 → 强化学习决策
• 轨迹优化 → 端到端规划

投资回报分析

DARPA总投资约1亿美元,但催生的产业价值超过1000亿美元:

  • Waymo估值1050亿美元 (2020年峰值)
  • Cruise被GM以10亿美元收购 (2016年)
  • Argo AI被Ford/VW投资36亿美元 (虽2022年关闭)
  • Aurora上市市值约100亿美元 (2021年)
  • 激光雷达产业:Velodyne、Luminar等总市值>50亿美元

经验教训

  1. 开放竞赛模式:激发创新,避免闭门造车
  2. 失败的价值:第一届的惨败反而激发了更大的热情
  3. 人才聚集效应:顶尖人才的碰撞产生了持久的产业影响
  4. 技术积累的重要性:很多"失败"的技术在多年后找到了应用场景

1.2 Google自动驾驶项目启动 (2009-2015)

1.2.1 Project Chauffeur的诞生

2009年,Google X实验室秘密启动Project Chauffeur。Sebastian Thrun说服Larry Page投入这个"登月计划"。初始团队几乎全部来自DARPA挑战赛的获胜队伍。

项目起源的内幕: Larry Page的祖父是密歇根州早期汽车工人,他对交通事故造成的生命损失深有感触。每年全球125万人死于交通事故,94%由人为失误造成。Page认为这是一个可以通过技术解决的问题。2008年金融危机后,底特律汽车工业崩溃,大量工程师失业,这为Google提供了招聘机会。

早期里程碑:

  • 2009年:7辆改装丰田普锐斯开始在山景城测试
  • 2010年:累计行驶14万英里未发生事故
  • 2012年:获得内华达州首张自动驾驶测试牌照(车牌号:001)
  • 2014年:发布Firefly原型车,没有方向盘和刹车

秘密测试阶段 (2009-2010)

Google选择的测试路线经过精心设计:

初期测试路线图
┌─────────────────────────────────┐
│ 阶段1:Google园区内部道路        │
│ • 限速15mph                     │
│ • 无其他车辆                    │
│ • 2009.1-2009.3                │
├─────────────────────────────────┤
│ 阶段2:山景城住宅区              │
│ • 限速25mph                     │
│ • 轻度交通                      │
│ • 2009.4-2009.8                │
├─────────────────────────────────┤
│ 阶段3:El Camino Real主干道     │
│ • 限速35-45mph                  │
│ • 中度交通,信号灯              │
│ • 2009.9-2010.3                │
├─────────────────────────────────┤
│ 阶段4:Highway 101高速          │  
│ • 限速65mph                     │
│ • 高密度交通                    │
│ • 2010.4开始                    │
└─────────────────────────────────┘

最著名的测试是Steve Mahan(法定盲人)的试乘,展示了自动驾驶对残障人士的意义。

1.2.2 第一代技术架构

Google早期系统继承了Urban Challenge的架构,但在数据和计算上大幅升级:

Google自动驾驶系统架构 (2009-2012)
┌─────────────────────────────────────────────┐
│               传感器配置                      │
├─────────────────────────────────────────────┤
│ • Velodyne HDL-64E (车顶)                   │
│   - 64线激光雷达,10Hz,120万点/秒           │
│ • SICK LMS291 x4 (保险杠)                   │
│   - 单线激光雷达,75Hz,盲区覆盖             │
│ • Continental ARS 300 x3 (前后)             │
│   - 77GHz毫米波雷达,200m探测距离            │
│ • Point Grey相机 x2                         │
│   - 前向车道线/交通灯检测                    │
│ • Applanix POS LV 420                      │
│   - GPS/IMU组合,2cm定位精度                 │
└─────────────────────────────────────────────┘
                      ↓
┌─────────────────────────────────────────────┐
│           核心算法模块                        │
├─────────────────────────────────────────────┤
│ 感知 (Perception)                           │
│ • 点云分割:Graph-based segmentation         │
│ • 物体跟踪:Multi-Hypothesis Tracking        │
│ • 分类识别:人工特征+SVM                      │
├─────────────────────────────────────────────┤
│ 定位 (Localization)                         │
│ • 高精地图:厘米级道路几何+语义               │
│ • 点云匹配:ICP+粒子滤波                     │
│ • 多传感器融合:EKF/UKF                      │
├─────────────────────────────────────────────┤
│ 预测 (Prediction)                           │
│ • 轨迹预测:高斯过程回归                      │
│ • 意图识别:隐马尔可夫模型                    │
├─────────────────────────────────────────────┤
│ 规划 (Planning)                             │
│ • 路径规划:A* + RRT*                       │
│ • 速度规划:S-T图搜索                        │
│ • 决策规则:有限状态机                        │
└─────────────────────────────────────────────┘

1.2.3 高精地图 - Google的秘密武器

与DARPA时代不同,Google意识到高精地图是破解感知难题的关键。这个决策源于一个关键观察:人类驾驶员95%的时间在熟悉的道路上行驶,依赖的是记忆而非实时感知。

高精地图数据结构
Layer 1: 基础地图 (Base Map)
├── 道路几何:车道中心线、边界
├── 拓扑连接:车道连接关系
└── 静态标识:信号灯、标志牌位置

Layer 2: 语义地图 (Semantic Map)  
├── 车道属性:限速、转向限制
├── 交通规则:让行关系、停车线
└── 特殊区域:人行横道、施工区

Layer 3: 先验地图 (Prior Map)
├── 激光点云特征:用于定位匹配
├── 视觉特征:道路纹理、标志牌
└── 统计模型:车流模式、事故多发点

1.2.4 Firefly - 激进的无人驾驶原型

2014年,Google发布了完全自主设计的Firefly原型车。这个呆萌的小车代表了Google的技术自信:

  • 激进设计:无方向盘、无踏板、限速25mph
  • 传感器冗余:激光雷达+相机+毫米波+超声波
  • 安全考虑:泡沫前保险杠、软性挡风玻璃
  • 用户体验:只有"开始"和"停止"两个按钮

然而,Firefly最终被放弃,Google转向与传统车企合作。这个决定预示了L4级自动驾驶的漫长道路。

1.3 传统CV方法:HOG/SIFT/光流

在深度学习统治之前,计算机视觉依赖精心设计的特征工程。这些方法虽然"古老",但其思想至今仍有价值。

1.3.1 HOG+SVM - 行人检测的经典组合

2005年,Dalal和Triggs提出的HOG(Histogram of Oriented Gradients)成为行人检测的标准方法:

HOG特征提取流程
输入图像(64x128)
    ↓
梯度计算 (Gradient)
    ├── Gx = I(x+1,y) - I(x-1,y)
    └── Gy = I(x,y+1) - I(x,y-1)
    ↓
方向直方图 (8x8 cells, 9 bins)
    ↓
块归一化 (2x2 cells/block, 50% overlap)
    ↓
特征向量 (3780维)
    ↓
SVM分类器
    ↓
检测结果

MobileEye的早期产品大量使用HOG变种:

  • 检测率:~90% @ 10^-4 FPPW
  • 速度:30fps on EyeQ2 (2008年)
  • 局限:对遮挡、姿态变化敏感

1.3.2 SIFT/SURF - 特征点匹配

SIFT(Scale-Invariant Feature Transform)在视觉SLAM中广泛应用:

SIFT在自动驾驶中的应用

1. 视觉里程计 (Visual Odometry)
   - 连续帧特征匹配
   - 相机位姿估计

2. 闭环检测 (Loop Closure)
   - 场景识别
   - 地图重定位

3. 交通标志识别
   - 模板匹配
   - 仿射不变性

性能指标 (circa 2010):

- 特征提取:~200ms/frame (VGA)
- 匹配精度:>95% (良好光照)
- 鲁棒性:旋转360°,尺度2x,视角30°

1.3.3 光流法 - 运动估计

Lucas-Kanade光流是早期ADAS的核心算法:

光流在ADAS中的应用场景

1. 前车检测与跟踪
   光流场 → 运动分割 → 车辆检测

2. 车道偏离预警 (LDW)
   消失点估计 → 自车运动 → 偏离检测

3. 碰撞时间估计 (TTC)
   光流发散 → 膨胀率 → TTC = Z/Vz

算法性能 (Bosch ADAS, 2012):

- 金字塔层数:3-4层
- 窗口大小:21x21像素  
- 处理速度:25fps @ QVGA
- 精度:~0.5像素 (亚像素插值)

1.3.4 立体视觉 - 深度估计

Subaru的EyeSight是立体视觉的成功案例:

EyeSight立体视觉系统 (2008-2015)

硬件配置:
┌──────────────────────────────┐
│  左相机        右相机         │
│    ←── 350mm基线 ──→         │
│  VGA CMOS    VGA CMOS        │
└──────────────────────────────┘

处理流程:

1. 立体校正 (Stereo Rectification)
2. 特征匹配 (Semi-Global Matching)
3. 视差计算 (Disparity)
   depth = f × baseline / disparity

4. 3D重建 (250万点/秒)

系统性能:

- 探测距离:1-110m
- 测距精度:±5% @ 40m
- 视场角:37° × 27°
- 处理延迟:<100ms

1.4 早期ADAS系统架构

1.4.1 MobileEye的崛起 - 从后装到前装

1999年成立的MobileEye,用一颗单目相机改变了ADAS行业格局。

MobileEye EyeQ系列演进
┌────────────────────────────────────────────────────┐
│ 代次   │ 年份  │ 算力    │ 功耗 │ 主要客户        │
├────────────────────────────────────────────────────┤
│ EyeQ1  │ 2004 │ 未公开  │ 2.5W │ 后装市场        │
│ EyeQ2  │ 2008 │ 2.5GIPS │ 2.5W │ BMW, GM, Volvo  │
│ EyeQ3  │ 2014 │ 256GIPS │ 3W   │ Tesla AP1, Audi │
│ EyeQ4  │ 2018 │ 2.5TOPS │ 3W   │ 38家OEM        │
└────────────────────────────────────────────────────┘

EyeQ3技术规格 (2014):

- 双核MIPS + 4个VMP视觉处理器
- 处理5个摄像头输入
- 功能:AEB, ACC, LDW, TSR
- 成本:~$50 (量产价)

MobileEye的成功秘诀:

  1. 算法硬件协同设计:专用VMP加速HOG/SIFT运算
  2. 极致功耗优化:被动散热即可工作
  3. 渐进式产品策略:从单一功能到L2+

1.4.2 传统Tier1的ADAS方案

Bosch、Continental、Denso等传统供应商采用分布式架构:

典型Tier1 ADAS系统架构 (2010-2015)

传感器层:
┌─────────────────────────────────────────┐
│ 77GHz雷达  │ 前视相机 │ 角雷达×4 │ 超声波×12 │
└─────────────────────────────────────────┘
      ↓             ↓           ↓            ↓

ECU层 (分布式处理):
┌──────────┐  ┌──────────┐  ┌──────────┐
│ ACC ECU  │  │ LKA ECU  │  │ AEB ECU  │
│ (Freescale│  │ (TI      │  │ (Infineon│
│  MPC5xxx)│  │  TDA2x)  │  │  Aurix)  │
└──────────┘  └──────────┘  └──────────┘
      ↓             ↓             ↓

车辆总线:
┌─────────────────────────────────────────┐
│            CAN/FlexRay总线               │
└─────────────────────────────────────────┘
      ↓
执行层:
┌──────────┐  ┌──────────┐  ┌──────────┐
│   ESP    │  │   EPS    │  │   TCU    │
│ (制动)   │  │ (转向)   │  │ (动力)   │
└──────────┘  └──────────┘  └──────────┘

1.4.3 ADAS功能分解与实现

主流ADAS功能的技术实现(2015年水平):

| 功能 | 传感器需求 | 核心算法 | 计算需求 |

功能 传感器需求 核心算法 计算需求
AEB (自动紧急制动) 77GHz雷达+相机 TTC计算+目标分类 ~100 MIPS
ACC (自适应巡航) 77GHz雷达 目标跟踪+PID控制 ~50 MIPS
LKA (车道保持) 前视相机 车道线检测+横向控制 ~200 MIPS
BSD (盲点检测) 24GHz角雷达×2 目标检测+区域判断 ~20 MIPS
APA (自动泊车) 超声波×12+环视相机 空间检测+路径规划 ~500 MIPS
AEB系统决策逻辑示例

输入信号:

- 目标距离 d (雷达)
- 相对速度 vr (雷达多普勒)
- 目标类型 type (相机分类)
- 驾驶员状态 (转向/制动)

TTC计算:
if vr < 0:  # 接近目标
    ttc = -d / vr
else:
    ttc = ∞

制动策略:
if ttc < 0.6s:
    全力制动 (>1g)
elif ttc < 1.0s:
    部分制动 (0.6g) + 警告
elif ttc < 2.0s:
    预填充制动 + 警告
else:
    监控状态

1.4.4 成本与性能的平衡

早期ADAS面临的核心挑战是成本:

2015年典型L2配置成本分析

传感器成本:

- 77GHz前雷达:        $150
- 24GHz角雷达×4:      $200  
- 前视相机(VGA):      $50
- 超声波×12:          $60
传感器小计:           $460

计算平台:

- MobileEye EyeQ3:     $50
- ACC/AEB ECU:         $30
- 其他ECU:             $50
计算小计:             $130

软件许可:             $100
集成测试:             $200
─────────────────────────
总成本:               ~$900

对比:

- 整车成本占比: 2-3%
- 消费者付费意愿: $1500-2000
- OEM毛利要求: >40%

1.5 2014 Mercedes S-Class - 半自动驾驶的里程碑

1.5.1 Distronic Plus with Steering Assist

2013年发布的W222 S-Class是第一款真正意义上的L2级量产车:

S-Class自动驾驶功能矩阵

基础功能 (2014):
┌────────────────────────────────────────┐
│ Distronic Plus (增强版ACC)             │
│ • 0-200km/h全速域                      │
│ • Stop&Go功能                          │
│ • 基于导航的速度调节                    │
├────────────────────────────────────────┤
│ Steering Assist (转向辅助)             │
│ • 0-60km/h车道保持                     │
│ • 60-200km/h车道居中                   │
│ • 弯道速度自适应                        │
├────────────────────────────────────────┤
│ Active Lane Change (主动变道)          │
│ • 驾驶员确认后执行                      │
│ • 雷达监控盲区                          │
│ • 自动回正                              │
└────────────────────────────────────────┘

高级功能 (2014-2016更新):

- BAS Plus (交叉路口辅助)
- PRE-SAFE Plus (后碰撞保护)
- Night View Assist Plus (夜视行人检测)
- Traffic Sign Assist (交通标志识别)

1.5.2 传感器配置 - 豪华的冗余

S-Class采用了当时最豪华的传感器配置:

Mercedes S-Class传感器布局 (2014)

        前视立体相机
            ↓
    ┌───────────────┐
    │               │
远程雷达          远程雷达
    │   ┌─────┐    │
    │   │     │    │
近程雷达  [S]  近程雷达
    │   │     │    │
    │   └─────┘    │
近程雷达          近程雷达
    │               │
    └───────────────┘
          ↓
      后置雷达×2

详细规格:

1. 立体相机 (车内后视镜)
   - 6.5cm基线
   - 45°FOV
   - 50m有效距离

2. 长距雷达 (前保险杠)
   - 77GHz,200m探测距离
   - ±9°视角,0.1°分辨率

3. 短距雷达×6
   - 24GHz,80m探测距离
   - ±40°视角

4. 超声波×12
   - 4.5m探测距离
   - 用于泊车辅助

1.5.3 系统架构 - 分布式到域控制器的过渡

S-Class代表了从传统分布式向域控制器架构的过渡:

S-Class E/E架构

域控制器层:
┌─────────────────────────────────────┐
│      驾驶辅助域控制器                │
│   (Driver Assistance Domain)        │
│   • 双核处理器                       │
│   • 传感器融合                       │
│   • 轨迹规划                         │
└─────────────────────────────────────┘
            ↓
    FlexRay总线 (10Mbps)
            ↓
功能ECU层:
┌──────┐  ┌──────┐  ┌──────┐  ┌──────┐
│ ESP  │  │ EPS  │  │ TCU  │  │ BCM  │
└──────┘  └──────┘  └──────┘  └──────┘

软件架构特点:

1. 模型预测控制 (MPC) 用于轨迹跟踪
2. 多目标决策优化 (舒适性vs效率)
3. 驾驶员监控与接管逻辑
4. 功能降级策略

1.5.4 市场影响与技术启示

S-Class的成功带来了深远影响:

技术验证

  • 证明了L2级自动驾驶的技术可行性
  • 建立了"驾驶员负责"的法律框架
  • 确立了渐进式路线的主流地位

产业影响

  • 2015-2016年,各豪华品牌快速跟进
  • BMW 7系 (2015): Driving Assistant Plus
  • Audi A8 (2017): Traffic Jam Pilot (L3)
  • Volvo XC90 (2016): Pilot Assist

经验教训

  1. 传感器冗余必要性:单一传感器无法覆盖所有场景
  2. 人机交互的重要性:接管提醒、状态显示
  3. ODD定义明确:速度范围、道路类型、天气条件
  4. 持续OTA的需求:功能迭代、bug修复
L2功能使用率统计 (J.D. Power, 2016)
┌────────────────────────────────────┐
│ ACC使用率:        71%              │
│ LKA使用率:        52%              │
│ 自动泊车使用率:    23%              │
│ 盲点检测满意度:    89%              │
│ 整体安全感提升:    82%              │
└────────────────────────────────────┘

本章小结

前深度学习时代(Pre-2016)奠定了自动驾驶的技术基础:

  1. DARPA挑战赛培养了第一代自动驾驶人才,验证了基础技术栈
  2. Google项目证明了城市道路自动驾驶的可能性,确立了高精地图的重要性
  3. 传统CV算法虽然性能有限,但计算效率高,至今仍在嵌入式系统中使用
  4. 早期ADAS建立了产业化路径,培育了市场需求
  5. Mercedes S-Class实现了L2级量产,开启了辅助驾驶的商业化时代

这个时期的核心特征:

  • 技术路线:规则主导,特征工程
  • 传感器方案:激光雷达for L4,雷达+相机for L2
  • 商业模式:L4追求一步到位,L2渐进式演进
  • 关键挑战:感知能力不足,极度依赖高精地图

2016年即将到来的深度学习革命,将彻底改变这一切。