摘要:本文将“人工智能研究范式”(AI for Research,AI4R)称为第五种科研范式,并总结了其特征,包括:(1)人工智能充分融入科技研究;(2)机器智能成为科研不可分割的一部分;(3)有效处理高计算复杂度的组合爆炸问题;(4)概率统计模型在科研中发挥更大作用;(5)实现现有四种研究范式的融合,跨学科合作成为主流研究方式;(6)科研更加依赖以大模型为特征的大研究平台。本文指出,AI4R是一场科学革命,它带来的机遇与挑战将影响中国科技发展的未来,呼吁各领域科学家实现智能化转型。DOI: 10.16418/j.issn.1000-3045.20231007002-en
虽然这个被广泛使用的定义很有用,但它并没有完全捕捉到金融领域的动态转型,这种转型不仅是由传统企业推动的,也是由许多初创企业和其他意想不到的来源推动的(Zarifis & Cheng,2021)。有迹象表明,我们正处于这一转型的第二阶段,各方都吸取了教训,战略也得到了完善。现有企业往往承认,他们不再能随心所欲地塑造市场,也不再低估进入金融领域的新颠覆性企业。进入金融领域的新企业,一些是小型初创企业,另一些是来自金融以外其他领域的大型组织,往往不再低估现有企业在管理风险、制定监管等方面的能力。那些喜欢“押注”现有企业或颠覆者占主导地位的人似乎会感到失望。
近年来,人工智能 (AI) 在企业和个人中越来越受欢迎。这项技术的应用非常广泛,但最常见的应用包括计算机视觉解决方案、自然语言处理系统以及预测和规范分析引擎。尽管人工智能技术肯定可以在网络安全领域带来好处,但它也有可能被网络犯罪分子利用。因此,企业必须了解与这项技术相关的网络风险,并实施策略以尽量减少这些担忧。以下是网络犯罪分子利用人工智能技术的五种方式,以及帮助企业防范其武器化的技巧。
橡胶树普遍种植于东南亚国家,属于橡胶树属,大戟科橡胶树属中,巴西橡胶树是唯一可生产商业乳胶的树种 [1]。每个种植区的橡胶树品种不同,其产量也不同。识别栽培中的不同橡胶品种有助于实现生产力目标。DNA分析和目视分类是两种常用的橡胶树品种分类方法。由于DNA分析过程耗时,因此橡胶树的目视分类法更受青睐。然而,如果没有专门的农业知识,很难对橡胶幼苗进行目视分类。一般来说,训练有素的专业人员使用橡胶叶作为植物器官的视觉和形态特征进行分类。尽管如此,识别这种植物的器官仍然很困难,因为每个品种的叶子在外观上都很相似。因此,缺乏专业的分类学家仍然是农业耕作中的一个问题。植物的器官和特征可用于检查其生理方面。一些研究关注植物光合作用中的生长因素 [2],而冠层结构则被用于碳-水循环的研究 [3],通过测量不同器官的生长状态来估算植物生长所需的各种营养物质 [4]。传统的研究方法往往需要砍伐树木的部分枝条,采用技术可以减少由此造成的损害。植物分类可以通过叶片识别系统的计算模型来进行。大多数植物物种都有独特的叶片,其形状、颜色、纹理和边缘均不相同 [5,6]。近年来,已经提出了各种基于形状 [7e10] 或纹理 [11,12] 的植物叶片识别方法。这些方法仅研究叶片图像的单一视觉特征,准确率较低。因此,一些叶片识别方法涉及整合叶片的多视觉特征进行植物物种识别 [13e15]。这种分类包括颜色和形状[16]、颜色和纹理分析[17]、表面和轮廓特征[18]、颜色、纹理和形状的融合属性[19]、叶脉[20]、颜色组合、叶脉属性和形状
International Journal of Exercise Science 13(7): 410-426, 2020. 数以百万计的人使用可穿戴技术设备来记录日常步数,以促进健康的生活方式。然而,许多此类设备的准确性尚未确定。目的是确定 Samsung Gear 2、FitBit Surge、Polar A360、Garmin Vivosmart HR+ 和 Leaf Health Tracker 在自由运动和跑步机条件下步行和慢跑时的信度和效度。40 名志愿者完成了 5 分钟间隔的步行和慢跑自由运动和跑步机方案。这些设备以随机配置同时佩戴。两个手动步数计数器的平均值被用作标准测量。重测信度通过组内相关系数 (ICC) 确定。有效性通过结合 Pearson 相关系数、平均绝对百分比误差(MAPE:自由运动 ≤ 10.0%,跑步机 ≤ 5.00%)和 Bland-Altman 分析(设备偏差和一致性限度)来确定。显著性设置为 p < 0.05。Samsung Gear 2 被认为在慢跑条件下既可靠又有效,但在步行条件下则不然。Fitbit Surge 在除跑步机步行(被认为是可靠的,ICC = 0.76;但无效)之外的所有条件下都可靠且有效。Polar A360 在一种条件下(跑步机慢跑 ICC = 0.78)被发现是可靠的,但在任何条件下都无效。Garmin Vivosmart HR+ 和 Leaf Health Tracker 被发现既可靠又有效
糖尿病是全球范围内影响人类的主要慢性病之一。根据国际糖尿病联合会 (IDF) 发布的一份报告,2021 年糖尿病患者已达 5.366 亿,预计到 2045 年 20 至 79 岁年龄组的患病率将超过 7.832 亿 (1)。超过 90% 的患者患有 2 型糖尿病。在中国,预计有 1.45 亿人患有糖尿病 (2),而在美国,这一数字为 3420 万 (3)。某些测试(例如空腹血糖、2h-PG 和 HbA1c 水平)被视为合适的诊断标准 (4)。美国糖尿病协会建议使用经过验证的工具来识别和筛查受影响的成年人,以评估导致糖尿病发作的风险因素(5)。2 型糖尿病患者的主要病理缺陷包括胰岛素抵抗以及胰腺 b 细胞功能障碍导致的胰岛素分泌受损。此外,还有其他五种病理生理状况会导致糖尿病患者的葡萄糖不耐受。这些包括:脂质毒性、a 细胞产生更多的胰高血糖素、肝脏对胰高血糖素的敏感性增强、肾脏通过葡萄糖转运蛋白 2 对葡萄糖的重吸收增加,以及中枢神经系统对胰岛素抑制作用的抵抗,从而导致食欲失调和体重异常增加。所有这些因素都会使血糖水平维持在高位。加重 2 型糖尿病的其他因素包括糖毒性、炎症和氧化应激。据报道,炎症会改变某些细胞因子和趋化因子的浓度,改变白细胞的数量和活化状态,促进组织纤维化和白细胞凋亡,因此在 2 型糖尿病的病理生理学中至关重要(6-9)。糖尿病的症状包括脱水、视力模糊、突然体重减轻、多尿、多饮和多食。糖尿病患者更容易患心脏、脑和血管疾病。心血管系统疾病是糖尿病患者死亡的主要原因(10)。因此,充分关注糖尿病患者的血糖水平至关重要。定期监测和评估对于维持这些患者的适当血糖水平以及避免不必要的短期和长期并发症都很重要。正常血糖水平因各种因素而异,包括体力活动,70-180 mg/dl 被认为是避免任何突然或逐渐出现的并发症的安全范围(11)。调节和维持最佳血糖水平对于生活质量至关重要。调节得越好,糖尿病慢性并发症的可能性就越小。预防低血糖和高血糖对于有效管理糖尿病非常重要。血糖浓度受多种因素影响,最好使用历史值作为预测输入(3、12)。正确的糖尿病管理需要考虑各种因素,包括量身定制的食物摄入量、药物、胰岛素水平和身体活动,以期实现对每位患者的精确控制。目前,口服药物和胰岛素注射通常用于治疗糖尿病(13)。早期管理风险因素和适当的干预至关重要(12)。本研究旨在支持患者做出医疗或生活方式决策
地球和空间站上已经进行了大量的实验工作,以开发用于长期太空任务的种植食物的方法。5,6 月球和火星基地需要生物再生生命支持系统来实现自给自足的食物生产;否则,它们将成为价值有限的临时前哨,维护成本高昂,并需要不必要的星际旅行和相关风险。维护农作物需要人类进行大量的动手工作,从而减少了探索时间。然而,机器人食品生产现在正在地球上进行,而且,鉴于人工智能的力量,可以对其进行调整以维护火星上的农业模块。探测车可以在着陆点收集冰和土壤。机械臂在可移动的轨道上移动,可以种植、培育和收获可以包装和冷冻的食物,在人类登陆之前储存多年的供应。机器人可以是半独立的,也可以是远程控制的,带有可以轻松拆卸以根据需要连接替换臂的臂座。
深度学习使研究人员能够从果蝇、老鼠甚至人类中生成越来越复杂的连接组。这些数据可以帮助神经科学家了解大脑的工作原理,以及大脑结构在发育和疾病过程中的变化。但神经连接并不容易绘制。2018 年,利希特曼与加利福尼亚州山景城谷歌连接组学负责人维伦·贾恩联手,后者正在为他的团队的人工智能算法寻找合适的挑战。贾恩说:“连接组学中的图像分析任务非常困难。你必须能够在很远的距离内追踪这些细线,即细胞的轴突和树突,而传统的图像处理方法犯了太多错误,以至于它们对这项任务基本上毫无用处。”这些线可以比一微米还细,延伸到数百微米甚至毫米的组织。深度学习算法提供了一种自动分析连接组学数据的方法,同时仍能实现高精度。在深度学习中,研究人员可以使用包含感兴趣特征的注释数据集来训练复杂的计算模型,以便快速识别其他数据中的相同特征。“当你进行深度学习时,你会说,‘好吧,我只举几个例子,你自己想办法解决一切’,”德国海德堡欧洲分子生物学实验室的计算机科学家 Anna Kreshuk 说。但即使使用深度学习,Lichtman 和 Jain 在尝试绘制人类大脑皮层片段时也面临着艰巨的任务 1 。仅对 5,000 个左右极薄的组织切片进行成像就花了 326 天。两位研究人员花了大约 100 个小时手动注释图像和追踪神经元,以创建“地面实况”数据集来训练算法,这种方法被称为监督机器学习。然后,训练有素的算法自动将图像拼接在一起,并识别神经元和突触以生成最终的连接组。 Jain 的团队为解决这个问题投入了大量的计算资源,包括数千个张量处理单元 (TPU),这是谷歌内部专为神经网络机器学习而打造的图形处理单元 (GPU)。Jain 说,处理这些数据需要几个月的时间,大约需要一百万个 TPU 小时,之后人类志愿者以协作的方式校对和纠正连接组,“有点像谷歌文档”,Lichtman 说。他们说,最终结果是任何物种中以这种细节程度重建的最大数据集。尽管如此,它只代表了 0.0001%