谷歌在2021年年度开发者大会上宣布了Android 12的公开测试版,这是Android的下一个主要版本,它是Google I / O2021。谷歌将Android 12描述为最雄心勃勃的版本,并表示这是Android中最大的设计变更。大规模用户界面大修的历史。
Android 12测试版的发布是根据开发人员预览版发布时宣布的时间表进行的。根据该计划,第2和第3个Beta版本将在6月至7月左右发布,最终的Beta版本将在8月发布。这次大规模的UI重组称为Material UI,在这次发布的Beta版本中引起了人们的关注。最大的功能是名为“颜色提取”的自定义功能,该功能会自动将用户设置的屏幕上自动提取的颜色反映到整个系统中。
接下来是小部件的重新设计。现在,通过整体设计重组,小部件变得更加方便和容易找到。更改了整体外观,以使每个小部件的角都变圆并自动填充以适合主屏幕。小部件本身也反映了系统颜色,从而可以用一致的颜色为整个设备着色。也可以在新的小部件上放置确认开关和单选按钮。
响应式布局可实现窗口小部件的自动缩放,不仅可以优化窗口小部件的常规智能手机,还可以针对可折叠智能手机和平板电脑进行优化。
此外,通过向整个系统添加一个名为“拉伸滚动”的新效果,您可以看到滚动时已到达内容的结尾。此外,音频UI和视觉效果已经重新组织,因此在播放音频的应用程序之间切换时,每个应用程序的音频不会重叠。
在Android 12 beta中,它成功地将核心系统服务所需的CPU时间减少了22.1%,并提高了处理速度和响应速度。此外,系统服务器将内核使用率降低了15.4%,从而提高了电源效率和使用时间。此外,它还通过减少锁定或延迟来缩短了应用程序的加载时间。例如,据说Google Photos的发布速度提高了36%。
以下是Android设备上的标准配置。与Android生态系统合作伙伴合作,我们为设备功能设置了一个称为性能类的标准。性能级别涵盖了广泛的摄像机启动和延迟,编解码器可用性,编码质量,最小内存大小,屏幕分辨率,读写性能等。我可以确认。
此外,在2020年发布自动许可重置功能后,它通过自动确定已使用了很长时间的应用程序实现了休眠模式功能,该应用程序受到了好评,例如两百八十万个单元。周。设置休眠状态不仅会使所有权限无效,而且会强行终止应用程序,从而释放诸如内存和存储之类的临时资源。新的自动停止功能可以节省设备存储性能并提高安全性。
过去,有必要与蓝牙设备配对,但是即使在不使用设备位置信息的应用中,也需要位置信息许可。在Android 12 Beta中,可以授予在应用程序端搜索附近的蓝牙设备的权限,而无需授予位置信息权限。
接下来,Android先前提供了替代方法,例如仅在使用该应用程序时或仅在此时间允许位置信息。 Androded 12 beta提出了一种替代方案,允许粗略定位,这至少允许新应用程序需要粗略的定位信息。 Google表示,最好在使用一般位置信息时向开发人员询问大概的位置信息。
新发布的Android 12 beta版不仅可以用于开发人员,还可以用于早期采用者,不仅可以用于Google的智能手机Pixel,而且还可以用于华硕和Oppo等智能手机。谷歌表示,对于希望使用Android 12 beta的用户,希望更多的用户在Android 12 beta中试用该应用并报告问题。相关信息可以在这里找到。
◇将API添加到AR Core =在这次活动中,Google宣布将向ARCore引入两个新的API,ARCore是由其公司开发和提供的AR开发套件。除了新引入的API外,还可以创建比以前更详细的深度图,并且可以在录制的视频中使用AR。
2018年推出的AR Core已被安装超过10亿次,目前有8.5亿多部Android设备运行AR Core来访问AR体验。 Google宣布了最新版本AR Core 1.24,并宣布将引入Raw Depth API和Recording and Playback API。
2020年,Google推出了Depth API,该API可通过单个摄像头创建深度图,使您可以创建深度图并增强Android设备上的AR体验。新发布的RODAPS API是在现有DApps API的基础上构建的。它创建深度图以启用详细的AR表达式。该深度图使得可以通过使用为像素深度估计提供置信度值的对应图像添加数据点来获得逼真的深度图。通过识别物体深度和位置之间的关系,可以获得更准确的AR体验。这使应用程序可以准确地测量空间距离。
由于RodApps API不需要特殊的深度传感器(例如ToF传感器),因此可以在大多数已使用AR内核的Android设备上使用。最重要的是,它说明体验质量比安装ToF传感器时更高。
接下来,困扰AR应用程序开发人员的问题之一是,在特定环境中测试应用程序行为时,他们实际上必须去那个地方。当然,开发人员并不总是能够访问他们想要的位置,并且在某些情况下,照明条件会随着时间而变化,传感器会从每个测试会话中检索信息,依此类推。
记录和回放API通过启用IMU(惯性测量单元)和深度传感器数据以及位置视频的记录,解决了AR开发人员的问题。使用此API,即使您根据所拍摄的视频在家中,也可以在公园舞台上欣赏AR应用程序。该API的好处不仅对用户有吸引力,而且对AR应用程序开发人员也具有吸引力。中国公司DiDi使用记录和回放API在DiDi-Rider应用程序中使用AR开发导航功能。据说,如果有电影录像,它可以测试AR,而无需多次前往现场。相关信息可以在这里找到。
◇具有5个新功能的Google Maps = Google接下来在Google Maps上宣布了一项新功能。首先,寻找很多减少突然的汽车刹车的方法。每当在冀东搜索路线时,它都会考虑道路车道和弯道的数量,并显示到达目的地的多条路线。如果到达时间相同或至少不同,则选择它作为减少突然制动次数的推荐路线。
接下来是详细的实时视图。如果选择GPS,则可以点击“地图实时”按钮直接访问增强现实实时视图,并检查新的路标以获取诸如交通拥堵情况和照片之类的信息。如果您正在旅行,您还将知道所选商店距离您所住的酒店有多远。
接下来是高精度地图。地图变得更详细,人行道,人行横道和安全区的位置更容易掌握,道路的形状和宽度成为比例。当行人经过最小路线时,使用轮椅或婴儿车时,此信息会有所帮助。到2021年底,此功能将在包括柏林在内的50多个城市中提供。
接下来,可视化拥塞情况。街道上的拥挤区域用不同的颜色标记。前往热闹地区避免交通拥堵时,此功能可能会很有帮助。
最后是根据情况改变显示信息。在最相关的位置强调了诸如使用时间或用户是否正在旅行之类的信息。例如,如果您在工作日的上午8点打开地图,则会看到附近的咖啡店,而不是晚餐地点。此外,如果您触摸任何地方(如果是汉堡店),则会突出显示相关位置,例如附近的其他汉堡店。在其他情况下,旅游目的地会突出显示。这些功能预计将在未来几个月内推广到Android和iOS。相关信息可以在这里找到。
◇如何改善使用智能手机相机拍摄的肤色=在本次活动中,Google宣布智能手机图像适用于所有人,并将改进其算法,以便可以更精确地构建它。容易想到用相机拍摄是客观的,但实际上,在制作相机的过程中,工具中反映了各个人的意愿和决定。据说有色人种的意愿很少被包括在这个决定中。
因此,Google开展该项目的目的是展示其所有相机和图像产品(包括肤色较深的人)的最佳效果。迄今为止,他们已经与专家们合作拍摄了数千张照片,他们使数据集变得多样化,并据此学习了算法。此外,自动白平衡和自动曝光调整算法的准确性也得到了提高。
这项技术将反映在即将面世的Pixel智能手机中,并将与Android合作伙伴和整个生态系统共享该学习成果。
◇与三星电子建立智能手表的集成平台=谷歌还宣布更新其智能手表软件平台,即Google的Wear OS。还显示,作为Wear OS更新的一部分,将与三星电子共同建立一个新的集成平台。
谷歌表示,它将把其Wear OS和Tizen的优势整合到一个平台中,两家公司可以携手合作,提供一个环境,您可以在其中使用更快的性能,更长的电池寿命并使用更多的应用程序。已明确在In Galaxy Watch系列中使用的与Tizen的集成。
双方共同努力,将最新芯片组上的应用程序启动减少了30%,并实现了流畅的UI运动和动画效果。此外,通过优化操作系统并利用低功耗硬件内核,它还实现了智能手表连续使用时间的延长。即使在白天连续激活心率传感器并在夜间跟踪睡眠,它仍可以成功地将电池寿命延长到第二天早上仍可以剩余电池的水平。
只需双击侧面按钮即可完成应用程序的切换,而名为Tiles的新功能仅从应用程序中收集重要信息,因此您可以立即访问所需的信息。由Google提供的Google Maps,Google Pay,YouTube Music和其他服务应用程序也已进行了显着链接,并且Google收购的Fitbit已添加到默认应用程序中。
在集成平台中,谷歌和三星电子以及所有设备制造商都添加了定制的用户体验。也就是说,可能有更多选择。新的Wear OS也将发布使开发更加容易的API。相关信息可以在这里找到。
◇就像真实的面对面对话一样, “ Magic Mirror ?” = Google宣布了Starline项目,该项目开发了一种新的交流工具,即使在偏远地区,您也可以感觉像在面对面交谈。
Google将Project Starline开发工具描述为一个魔镜。您可以通过此镜子自然交谈,通过手势进行交流,并进行目光交流。由于Starline项目仍处于开发阶段的中间,因此需要定制硬件和高度专业化的设备。但是,据说有些Google办事处已经对其进行了测试,并且正在进行内部测试。
Starline项目可以像在物理上一样交流。实现这一目标需要三件事,但第一件事是一种3D成像技术,它可以照原样捕获人。下一步是通过实时压缩技术,通过现有网络有效地传输数据。最后是一种渲染技术,可以忠实地再现传输的3D图像。
另外,应用了诸如计算机视觉,机器学习和空间音频之类的技术,并且通过这种技术,有望像直接碰面一样以手语进行交流。
Starline项目正在开发一种突破性的光场显示系统,该系统可以渲染具有体积和深度的3D图像,而无需诸如智能眼镜或耳机之类的其他设备。另外,据说不仅Google办事处,而且从医疗保健和媒体等某些行业中选出的企业合作伙伴也在展示和收集有关工具和应用程序的意见。它还计划在2021年下半年向企业合作伙伴分发试用版。Google的近期目标是使Starline项目更便宜,更易获得。相关信息可以在这里找到。
◇拍照时,人工智能会检查皮肤疾病=此外,Google宣布已开发出基于Web的皮肤灼伤判断工具,可让您轻松确定皮肤状况。这不是机器学习对皮肤灼伤诊断的首次研究。斯坦福大学的一个研究小组于2017年发布了一种在皮肤图像中识别皮肤癌的算法。
这次发布的有关皮肤图像验证工具的论文由Google开发团队于2002年5月发表在《自然》杂志上。根据该论文,用于评估皮肤疾病的AI系统已达到与美国认证的皮肤科医生相同的准确性。另外,据报道,非专家的医生可以使用AI来高精度地诊断皮肤。
要使用此Web应用程序,您需要使用智能手机相机从不同角度拍摄3张皮肤,头发和指甲的照片。接下来,回答各种问题,例如皮肤类型和问题发生的日期,AI模型将分析症状并显示可靠的信息。但是,该工具无法做出诊断或提供医疗建议。
根据Google的说法,对AI进行了训练,使用诊断出的皮肤案例数据超过65,000张照片,数百万个皮肤案例图像以及数千分钟的数据,从而使皮肤灼伤确定工具适用于年龄,性别,种族和肤色。结果,谷歌报告说它已被欧盟医疗器械法规(一种皮肤灼伤判断工具)认定为I类器械,并且已被认可具有CE标志。 Google计划在2021年下半年试用该皮肤灼伤判断工具。相关信息可在此处找到。
◇允许免费对话的特定于对话的AI = Google还发布了LaMDA,这是一种实现自然对话的特定于对话的AI。 Lambda是一种特定于对话的AI,它采用一种称为“变形金刚”的神经网络架构来进行语言理解。使用同一转换器的语言模型包括Google BERT和OpenAI的GPT-3,但它们也支持自由格式的对话。
根据Google的说法,人们之间的对话往往围绕特定主题展开,但有关电视节目的对话流程却不断地从拍摄话剧的国家转变为该国的当地美食。对于倾向于停留在预定义主题内的普通聊天机器人,很难遵循人类对话的流程。但是,据说Lambda(对话应用程序的语言模型)可以自由响应几乎无限多个主题。相关信息可以在这里找到。
◇将Android手机用作汽车钥匙或电视遥控器= Google还宣布了使用智能手机作为汽车钥匙或电视遥控器的功能。
作为链接新安装在Android上的设备的功能,首先是可以用作配备Android的智能手机上的汽车钥匙的数字汽车钥匙。屏幕顶部放置类似卡片的形状,底部显示汽车型号名称。数字卡其色通信标准使用NFC,只需将智能手机靠近汽车就可以打开和关闭它。预计卡其色数字版将于2021年秋季发布,并将得到Google Pixel系列和Samsung Galaxy系列的支持。
它还宣布了将智能手机用作电视遥控器的功能。使用此功能,您可以像触摸板一样使用智能手机来操作电视,也可以使用智能手机来流畅地输入文本。预计将于2021年下半年发布将智能手机用作电视遥控器的功能,并且据说可以在超过8000万台配备Google TV和Android TV的设备上使用。相关信息可以在这里找到。
此外,以Smart Canvas为例,它是2020年在G Suite中重命名的Google Workspace更新,它宣布将允许多人有效地工作。在@mansion中,将显示推荐者,文件和会议的列表,并且没有页面边框,因此将其放大以适合终端和屏幕尺寸,并且在打印和打印PDF时可以划分页面。未来几个月将引入表情符号反应,将添加语言建议和写作支持,将会议模板添加到Google文档中,将清单与其他内容链接,并添加表格模板。在使用Google Meet时,您可以直接提供Google文档,电子表格和幻灯片的内容,并添加实时字幕和翻译功能。它将时间轴视图添加到Google Spreadsheet,并增强了辅助分析功能。您也可以直接从Google聊天讨论切换到内容创建。相关信息可以在这里找到。