GPT-4刚发布,就已经有手机应用接入了!
只需要上传图像,再用语音提出需求,GPT-4就能帮助视障人士“看清”眼前的世界。
随时随地,实时解读,就像聊天对话一样自然。
例如想要换装,却不知道手里的衣服是什么颜色:
[xyz-ihs snippet=”GoodAD300x100″]只需要拍照上传给GPT-4,它很快就能将衣服纹理描述出来,材质、颜色和形状一清二楚:
△翻译by有道
在此之前,视障人士除了用手触摸以外,辨别物体往往需要依靠身边的人或是志愿者的帮助。
有网友看到后赞叹:这是目前见过最令人惊叹的GPT-4应用之一!
所以,加入了图像理解功能的GPT-4,究竟展现出了哪些能力?
基于GPT-4读图能力打造这个基于GPT-4的新功能名叫Virtual Volunteer,来自应用Be My Eyes。
目前来看,包括问路、导航、读取菜单、搜索等功能,接入GPT-4的Virtual Volunteer都能很好地帮用户完成。
例如问路。
只需要拍一张所在地点的照片,再通过语音询问GPT-4如何到达指定地点,它就会输出一条完整路线图,“读”给用户听:
△翻译by有道
又例如读图翻译。
只需要给GPT-4看眼物品描述、甚至只是物体形状,它就能搜索并输出这个产品的功能、具体说明和使用方法。
△翻译by有道
再例如公众场合导航。
[xyz-ihs snippet=”Alpilean”]想去健身房、却无法掌握空闲的器材位置,只需要拍摄所在场景照片,GPT-4就能指引你走到无人的器材面前。
当然,还有点菜、使用自动贩卖机买饮料、搜索某种植物的名字、给出时装建议……
只要将需求告诉GPT-4,它就能帮助视障人士解决对应的问题。
不过,目前这一功能还在测试中,苹果商店可以加入等待列表,至于安卓版也快来了。
搭载它的应用Be My Eyes,是一个为盲人开发的公益应用。
它最早是一个2012年成立的互助社区,并于2015年上线iOS版本应用,随后又上线了安卓版应用。
这个应用分为志愿者和盲人两个群体,志愿者会接受盲人传过来的照片或视频,通过语音沟通(打电话)帮助他们解决困难,目前已经有接近45w+视障人士和630w+志愿者使用。
如果成为一名志愿者,则只需要保持在线,确保随时可以接听到视障人士的电话。
如果是视障人士使用,则可以在需要帮助时拨打志愿者电话,或是寻求一些专业人士的帮助:
现在加入Virtual Volunteer之后,盲人也可以呼叫“虚拟志愿者”GPT-4的帮助,不用担心深夜无人应答的问题。
官方还玩了个谐音梗,AI→Eyes,“让AI成为你的眼睛”:
[xyz-ihs snippet=”newimage”]还当起美版知乎问答bot当然,除了Be My Eyes应用以外,不少其他APP也在争先恐后接入GPT-4。
例如,在美版知乎Quora出的Poe上,现在已经可以和GPT-4聊天(限免一句话):
又像AI律师软件DoNotPay,同样已经接入了GPT-4,并计划用它来推出“一键诉讼”服务。
基于这个服务,你看不顺眼的电话诈骗,一键就能举报投诉。
如果接到电话诈骗,只需要点击一个按钮,对应的电话内容就会被全程录音,并生成1000字的诉讼内容,索赔1500美元的金额。(不过目前还只有美国地区适用)
值得一提的是,DoNotPay的CEO Joshua Browder表示,他们之前也用GPT-3.5做过类似的功能,但效果不太行,GPT-4则已经能很好地hold住这一要求。
甚至已经有网友尝试用GPT-4来搞药物发现了……
除了上述应用和功能以外,还有网友察觉到了GPT-4开发小游戏的前景。 [xyz-ihs snippet=”Google-Search–mysites”]
新的GPT-4似乎在编程靠谱度上也有所提升,无论是在60秒内做一个打乒乓球小游戏:
还是20分钟之内搞出一个完整的贪吃蛇:
都可以说是游刃有余,提出更改需求也可以及时完成,编写的简单程序中基本上没有遇到需要修改的bug。
你还想到了什么GPT-4好玩的应用场景吗?
参考链接:
[1]https://twitter.com/BeMyEyes/status/1635690254689599488
来源: 量子位
968 views