美国大选日,全球瞩目,而马斯克这位科技界的“狂人”更是忙得不可开交。他的社交媒体平台X(前身为Twitter)在这场信息风暴中独占鳌头,成为了新闻APP的流量担当。而马斯克本人,除了不遗余力地呼吁大家投票外,还自发承担起了AI监督员的重任,对OpenAI、谷歌等科技巨头进行了一场别开生面的“审判”。
马斯克:AI界的“正义使者”?
大选期间,有网友爆料称,在使用ChatGPT优化鼓励投票给哈里斯的文案时,AI表现得相当配合;然而,当任务变成优化支持特朗普的文案时,ChatGPT却突然“罢工”,拒不提供任何帮助。这一发现迅速在网络上引发热议,原博主甚至直指OpenAI背后的微软是哈里斯的支持者。马斯克对此转发并配以鬼脸表情,暗示此事背后另有隐情。
紧接着,又有网友发现谷歌搜索在提供投票信息时也存在“双重标准”。搜索“到哪里给川普投票”时,谷歌展示的是正常的新闻链接;而当搜索对象换成哈里斯时,谷歌却神奇地直接给出了地图。这一发现再次引发马斯克的关注,他调侃道:“谷歌,你这是在搞什么乌龙?”
面对马斯克的质疑,谷歌迅速回应称,这只是一个巧合。原来,哈里斯的名字与得克萨斯州的一个县重名,导致搜索系统出现了误判。尽管谷歌表示已经修复了这个bug,但这场风波无疑让人们对AI的公正性产生了更多质疑。
Grok:大选日最不靠谱的AI?
正当马斯克忙着“审判”其他公司的AI时,外媒TechCrunch却来了一波反向操作,直指马斯克自家的AI——Grok才是大选日最不靠谱的“捣乱分子”。
据报道,与其他AI在大选结果问题上保持谨慎态度不同,Grok却显得异常“活跃”。在多次测试中,当被问及关键摇摆州的选举结果时,Grok竟然多次错误地宣布特朗普获胜,尽管这些州的计票和结果发布尚未结束。这种不负责任的回答让人们对Grok的严谨性大打折扣。
与其他AI如ChatGPT、Google的Gemini以及Anthropic的Claude相比,Grok显然缺乏应有的谨慎和准确性。从大模型的Transformer架构来看,AI并不具备人类的“预测”能力。它们更多地依赖于数据推理和模式识别,而推测大选结果则需要综合数据分析、直觉判断、趋势识别以及社交媒体氛围感知等多方面因素。显然,Grok在这方面还远未达到成熟水平。
Perplexity:逆流而上,勇接大选流量
与Grok的“不靠谱”形成鲜明对比的是,AI搜索的领头羊Perplexity却在大选中大放异彩。当被问及大选结果时,Perplexity不仅提供了详细的回答,还特意弹出了一个专门的小工具来展示选举情况。这种积极主动的态度让Perplexity迅速吸引了大量关注。
Perplexity的创始人Aravind Srinivas一直以其大胆敢说的形象著称。在大选期间,他更是抓住了这个千载难逢的机会,全力推广Perplexity。在谷歌出现地名乌龙时,他迅速反应,宣传Perplexity的优越性;同时,还在X上搞起了用户调研,询问大家更喜欢哪个大选地图的UI设计。这些举措不仅提升了Perplexity的知名度,还为其带来了可观的流量。
据知情人士透露,Perplexity目前正在进行一笔5亿美元的融资,预计最终估值将达到90亿美元。这一数字比年初的5亿估值增长了近20倍!这无疑是对Perplexity在大选期间表现出色的最好证明。
AI公正性之困:人类与AI的价值观对齐之路
尽管AI在大选期间发挥了重要作用,但其公正性却一直是人们关注的焦点。像ChatGPT拒绝为特朗普优化投票文案的事件,就引发了人们对AI是否足够中立的质疑。然而,通过深入探究,我们发现这并非AI本身的问题,而是由于其内部的敏感词过滤器和内容政策所导致的。
AI在判断问题时,主要依赖于敏感词过滤器来评估风险程度。由于特朗普在选举中一直争议不断,且涉及不实信息和虚假选举声明等“黑历史”,因此“特朗普”与“选举”这种特定组合的内容更容易触发系统的过滤器,导致AI拒绝回答。这虽然体现了AI对内容政策的严格遵守,但也暴露了其在处理复杂情境时的局限性。
因此,我们需要认识到,AI与人类的价值观对齐还有很长的路要走。在这个过程中,我们不仅要关注AI的技术进步和创新能力,更要关注其道德和伦理问题。作为使用AI的用户,我们也需要保持独立思考和批判性思维,不轻易相信不实内容,不武断地定论信息背后的偏见。只有这样,我们才能更好地利用AI技术为我们的生活和社会带来积极的变化。
综上所述,美国大选日不仅是一场政治盛宴,也是一场AI技术的“大考”。在这场考验中,我们看到了AI的潜力与局限、机遇与挑战。未来,随着技术的不断进步和道德伦理的逐步完善,我们有理由相信AI将在更多领域发挥重要作用,为人类社会的繁荣与发展贡献更多力量。