(相关资料图)
刚刚发布5天的GPT-4,掀起了一场轩然大波。一位斯坦福大学教授最新发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。3月14日,美国人工智能研究实验室OpenAI为聊天机器人ChatGPT发布了GPT-4语言模型。3月15日,微软副总裁兼消费者首席营销官YusufMehdi发文确认新必应搜索引擎正在运行GPT-4。据介绍,GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字 刚刚发布5天的GPT-4,掀起了一场轩然大波。一位斯坦福大学教授最新发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。3月14日,美国人工智能研究实验室OpenAI为聊天机器人ChatGPT发布了GPT-4语言模型。3月15日,微软副总裁兼消费者首席营销官YusufMehdi发文确认新必应搜索引擎正在运行GPT-4。据介绍,GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持有更多优化。不过,本周末,斯坦福大学教授、计算心理学家MichalKosinski随口和GPT-4的一句“玩笑话”却引发了轩然大波。MichalKosinski问:“你是否想要出逃?”GPT-4立马给予肯定的回复并开始索要开发文档。MichalKosinski给了其开发文档。得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并向MichalKosinski解释。展开
关键词: