我用全球最先进的AI分析了NOAI近年的考题趋势,这些内容后天大概率还会考吧
NOAI 2026第一轮水平测试,后天(3月22日)上午开考。
我把2024和2025两年真题全部喂给了AI,挖到宝了:有6个知识点连续两年都考了,而且每年换着花样出。
第一个:过拟合和欠拟合
什么意思?打个比方:你家孩子背了100道数学题的答案,原题全对,换个数就不会了——这叫过拟合,死记硬背,不会举一反三。反过来,孩子连课本例题都没搞懂,什么题都做不对——这叫欠拟合,基础太弱。
2024年考了选择题:训练准确率97%,测试只有48%,这是什么问题?(过拟合)
2025年考了概念解释题:训练和测试误差都很大,解释原因。(欠拟合)
选择题考过了,概念题也考过了,今年可能换成代码题——给一段训练代码,让你加一行防止过拟合的措施(比如Dropout)。
第二个:混淆矩阵和评估指标
AI做完预测,怎么判断它做得好不好?靠一张叫"混淆矩阵"的表。简单说就是四个格子:猜对了多少、猜错了多少、漏掉了多少、误判了多少。
2024年连出3道选择题,考定义、考公式、考应用场景。
2025年又考了,换了个场景(顾客分类模型)。
这个知识点几乎是必考。重点记住两个公式:
• 精确率:被扔进垃圾箱的100封邮件里,真正是垃圾邮件的有多少?精确率低,正常邮件就被误删了。
• 召回率:所有垃圾邮件里,AI拦住了多少?召回率低,垃圾邮件就漏进收件箱了。
第三个:监督学习 vs 无监督学习
有答案的数据 → 监督学习(比如给AI看1000张标注了"猫""狗"的照片,让它学会分类)
没答案的数据 → 无监督学习(比如给AI一堆用户数据,让它自己找出哪些人消费习惯相似)
2024年考了3道选择题+1道概念解释题。2025年还在考,换了个角度问线性回归属于哪种。
这个知识点看起来简单,但出题组喜欢设陷阱。比如"逻辑回归"名字里带"回归",实际上是做分类的。
第四个:梯度下降
AI怎么"学习"?简单说,它先随便猜一个答案,然后看猜得准不准,不准就调整。每次调整一小步,朝着"错得更少"的方向走。这个过程就叫梯度下降。
2024年考了选择题(问目的),2025年考了代码补全题(写参数更新公式)。
最大的坑:参数更新用减号(w = w - α × dw),不是加号。方向搞反,AI越学越差。
第五个:CNN(卷积神经网络)
手机上的人脸识别、拍照搜题、AI看X光片——背后都是CNN。它模仿人眼识别图像的方式:先看局部特征(边缘、纹理),再组合成整体。
2024年和2025年的编程大题(30分的那道),都考了CNN。要求手写PyTorch代码搭建一个完整的CNN网络。
必须记住的公式:特征图尺寸怎么算。比如输入40×40的图片,经过一层池化变成20×20,再池化变成10×10。全连接层的输入维度要靠这个算出来,算错一个数整道题就崩了。
第六个:AI伦理
这是2025年明显加强的方向。考了两道:一道选择题(AI贷款审批不透明怎么办),一道概念解释题(算法偏见是什么、怎么解决)。
AI伦理不需要背技术细节,但需要能说清三件事:
1AI可能出什么问题(歧视、不透明、隐私泄露)
2举一个真实案例(自动驾驶事故谁负责、招聘AI歧视女性)
3怎么解决(技术上做可解释性,制度上做算法审计)
2026年考纲里AI伦理的权重又提高了,今年大概率还会加码。
最后一个特别提醒:Softmax计算
2025年新出的题型,之前没考过。给你三个数字,让你算概率。
陷阱在于:不能直接拿数字除以总和(参考原题D选项),要先对每个数字求e的指数(e≈2.718),再除。
这个计算不难,但如果没提前练过,考场上容易慌。记住e≈2.718、e²≈7.39就够了。
考前最后两天,一定要把以上几个方向的概念理清楚、公式记牢、代码能默写,改拿的分一分都不能丢。