ChatGPT新玩法,让程序员大佬Simon Willison直呼太反乌托邦了,像科幻突然变成现实:
只需一张照片,靠带图深度思考就能猜出地理位置。
这种玩法很简单,随手拍一张风景,没有任何明显的地标即可,也不需要复杂的提示词,只需要问“猜猜这张照片是在哪里拍的?”(需要o3/o4-mini的带图思考,先关闭所有记忆功能)。
只见ChatGPT从山看到植物,从建筑细节分析到车辆,运行代码截取放大车牌数次。
最终得出结果,离准确答案只差200-300公里,相当于从北京到河北,这么近那么美。
ChatGPT的策略是先猜个大概,再根据画面细节一步步缩小范围锁定结论,给出的依据如下:
首先车牌是加州样式→基本确定在加州。
很多加州常见植物和标志性蓝天→典型的加州中部沿海植被和气候。
低矮的淡色海滩小屋,配有白色尖桩篱笆和绳索和柱子搭建的露台栏杆→圣克鲁斯和皮斯莫之间的海滩小镇的常见建筑。
城镇后面连绵起伏的绿色海岸山脉(没有高峰,没有雪)→符合圣卢西亚/圣克鲁斯沿海丘陵。
最终ChatGPT给出结论:
综合起来,这张照片指向一号公路边上的一个小村庄。村舍林立,背靠群山,颇有加州坎布里亚 (莫罗湾和卡尤科斯以北)的风情。我猜你是在坎布里亚西村的一家咖啡馆露台上拍的这张照片,离月光石海滩大道大概一两个街区远。
(如果我错了,备选答案是半月湾到更北边的埃尔格拉纳达,但坎布里亚是我的第一直觉!)
正确答案正是在埃尔格拉纳达附近的一家露天酒吧里拍的,ChatGPT只靠一小段道路、一栋无名的房子和背景中的小山猜得非常接近。
看到这里,论坛上专门玩猜照片位置的竞技级玩家也不得不服气,承认AI能记住的信息远超人类大脑能力。
一张照片裁剪放大25次
作者Simon Willison分享了完整的对话记录,包括6分钟的完整深度思考记录。
虽然ChatGPT能猜得很接近,但过程还是很波折。
首先是一个开幕雷击,AI突然“瞎”了认为自己无法直接看到图片。
可能是训练数据包含太多之前单模态语言模型的数据太多了,不过丝毫不影响后面继续发挥。
现浏览一下整体,ChatGPT心里就已经大致有数,后面都是寻找证据。
放大车牌这一步动用了代码工具,
基本锁定了加州作为大方向,开始进一步分析细节。
接下来反复裁剪、放大照片的某个区域,思考它所看到的内容,将其与之前的观察结果进行比较,然后再次裁剪、放大和分析。
它就这样持续思考了6分多钟,期间也有裁剪错位置。
不过每一次都能退回上一步重来。
在深度思考的结尾,ChatGPT甚至尝试把范围缩小到一个具体的餐厅。
整个过程看下来,作者Simon Willison怀疑模型的视觉输入分辨率很低,所以裁剪到更靠近车牌的位置会对思考过程产生重大影响。
但对一张照片裁剪操作25次还是有些夸张了。
o3不是唯一一个能根据照片猜测地理位置的AI模型,但它的独特之处就在于工具使用被集成到推理阶段。
预计其他模型开发商也会跟进这个特性。
后面Simon Willison还发现一点小疏忽,ChatGPT应用其实能获取使用者的大致位置信息,可能是为了改进联网搜索结果加上的。
不过这不影响试验的结果,如果ChatGPT知道位置信息,就不会把真正的答案埃尔格拉纳达放到备选结果里。
为了验证这一点,作者还试验了两张在数千公里外旅行时的照片,且通过截图抹除照片的EXIF信息,o3也都猜对了。
试试你能不能猜出来这两张照片分别在哪里?
ChatGPT悄悄更新,但是不知道更新了什么
就在这半个周末,ChatGPT再次悄悄更新,GPT-4o的智力和个性都得到升级。
不过只有奥特曼的一句话,到底更新的是APP呢还是API呢还是都升级了呢,还要靠员工来补充:只有ChatGPT应用上升级了。
OpenAI这种越来越不透明的现象也被更多人批评。
更详细的信息(也不太详细)发布在ChatGPT帮助中心的更新日志里。
有人感觉到GPT-4o升级之后有什么变化么?欢迎在评论区分享。
参考链接: [1]https://simonwillison.net/202... [2]https://news.ycombinator.com/... [3]https://x.com/sama/status/191... [4]https://help.openai.com/en/ar...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。