谷歌最近修改了其指导承包商评估人工智能响应的方式。
审稿人现在不太可能因为缺乏某个主题的特定专业知识而拒绝提供反馈。
谷歌为其对这些数据的利益进行辩护,指出影响其所寻求反馈的因素有很多种。
每当我们谈论围绕人工智能的争议时,“人为因素”经常作为反驳出现。担心人工智能抢走你的工作?还是有人要编写人工智能代码,管理训练人工智能的数据集,并分析其输出以确保它不是胡言乱语,对吧?问题是,人类的监督仅限于这些人工智能模型背后的公司有兴趣接管它,而一份新报告提出了一些令人担忧的问题,即谷歌和 Gemini 的界限在哪里。
据TechCrunch报道,谷歌将部分改进 Gemini 的工作外包给了 GlobalLogic 等公司。谷歌所做的一件事就是要求评审员评估 Gemini 的回答质量,从历史上看,这包括跳过评审员知识范围之外的问题的指示:“如果您不具备评估此提示的关键专业知识(例如编码、数学),请跳过此任务。”
从表面上看,这似乎是一个非常合理的指导方针,有助于最大限度地减少非专家对引导人工智能反应走向错误方向的影响。但正如TechCrunch发现的那样,这种情况最近发生了变化,GlobalLogic 与其贡献者分享的新规则指示他们“不要跳过需要专业领域知识的提示”,并至少“对你理解的提示部分进行评分”。他们至少被要求在系统中输入一条注释,说明尽管他们缺乏知识,但仍会进行评分。