只有通过海量测试才能抓住泛化性的本质吗?

本文第一作者为上海交通大学博士生程磊,指导老师为上海交通大学张拳石教授。

本文第一作者为上海交通大学博士生程磊,指导老师为上海交通大学张拳石教授。

当以端到端黑盒训练为代表的深度学习深陷低效 Scaling Law 而无法自拔时,我们是否可以回到起点重看模型表征本身——究竟什么才是一个人工智能模型的「表征质量」或者「泛化性」?我们真的只有通过海量的测试数据才能抓住泛化性的本质吗?或者说,能否在数学上找到一个定理,直接从表征逻辑复杂度本身就给出一个对模型泛化性的先验的判断呢?

给TA打赏
共{{data.count}}人
人已打赏
AI新闻资讯

人形机器人1:1复刻真人:技术执念、场景刚需,还是资本故事?——具身之路03期

2025-5-11 10:18:07

AI新闻资讯

机器人开始抢“主持人”饭碗!上海张江,傅利叶宣布下个十年规划,要做“以人为本的具身智能”

2025-5-11 15:03:07

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索