动物是如何体验大脑操控的?光遗传学使我们能够选择性地操控和探究健康和疾病状态下大脑功能的神经回路。然而,对于小鼠是否能够检测和学习来自广泛大脑区域的任意光遗传学扰动以指导行为,我们知之甚少。为了解决这个问题,小鼠被训练报告光遗传学大脑扰动以获得奖励和避免惩罚。在这里,我们发现小鼠可以感知光遗传学操控,无论扰动的大脑区域、奖励效应或谷氨酸能、GABA 能和多巴胺能细胞类型的刺激如何。我们将这种现象命名为视感受,即一种由扰动大脑内部产生的可感知信号,就像内感受一样。利用视感受,小鼠可以学会根据激光频率执行两组不同的指令。重要的是,视感受可以通过激活或沉默单个细胞类型来发生。此外,刺激一只老鼠的两个脑区发现,一个脑区引起的视感知不一定会转移到另一个之前没有受到刺激的区域,这表明每个部位都会产生不同的感觉。学习后,它们可以模糊地使用来自两个脑区的随机交错扰动来指导行为。总的来说,我们的研究结果表明,老鼠的大脑可以“监控”自身活动的扰动,尽管是间接的,可能是通过内感受或作为一种辨别性刺激,这为向大脑引入信息和控制脑机接口开辟了一条新途径。
意义:该项目解决了眼药使用方面的关键挑战,特别是对于老年人和视障人士。传统的滴眼瓶经常导致剂量不准确或漏用以及污染风险,所有这些都会损害治疗效果和患者安全。该项目通过设计一种直观、经济实惠的设备,提高了眼部护理的可及性,确保用户无需帮助即可准确、卫生地使用药物。可生物降解的纸质涂抹器系统的加入将保持无菌性,同时也是环保的。此外,该项目将延长单个滴眼瓶的给药剂量,减少所需的一次性塑料数量。项目成果:
摘要:如今人们越来越倾向于晚睡,并将睡眠时间与各种电子设备一起度过。同时,BCI(脑机接口)康复设备采用视觉显示器,需要评估视觉疲劳问题,避免影响训练效果。因此,了解夜间黑暗环境下使用电子设备对人体视觉疲劳的影响非常重要。本文利用Matlab编写不同颜色范式刺激,使用屏幕亮度可调的4K显示器联合设计实验,利用眼动仪和g.tec脑电图(EEG)设备采集信号,然后进行数据处理和分析,最终得到不同颜色和不同屏幕亮度的组合对黑暗环境下人体视觉疲劳的影响。本研究让受试者评估其主观(李克特量表)感知,并在黑暗环境下(<3 lx)收集客观信号(瞳孔直径、θ+α频带数据)。 Likert量表显示,暗环境下较低的屏幕亮度可以降低受试者的视疲劳程度,受试者对蓝色的偏好高于红色。瞳孔数据显示,中高屏幕亮度下,视知觉敏感度更容易受到刺激,更容易加深视疲劳。EEG频段数据表明,典型颜色和屏幕亮度对视疲劳的影响并不显著。在此基础上,本文提出了一个新的指标——视觉抗疲劳指数,为优化室内居住环境,提高电子设备和BCI康复设备的使用满意度,以及保护人眼提供了有价值的参考。
摘要 - 眼动追踪是指追踪眼球运动并确定用户注视点的过程。本文旨在介绍用于眼动追踪的各种技术。测量眼球运动有许多原理,包括测量电信号和光电信号、跟踪眼球图像中的许多视觉特征、测量红外 (IR) 光的相对反射以及使用机械或光学杠杆或磁场。本文还包括选择特定眼动追踪方法所涉及的因素。最后,它介绍了眼动追踪技术的一些应用。索引术语 - 眼动追踪、眼电图 (EOG)、视频眼动图 (VOG)、红外眼动图 (IROG)、巩膜搜索线圈。
结果 来自 6779 名患者的训练和验证数据集包括 14,341 张照片:9156 张正常视盘、2148 张有视乳头水肿的视盘和 3037 张有其他异常的视盘。分类为正常的百分比在各个部位从 9.8% 到 100% 不等;分类为有视乳头水肿的百分比在各个部位从 0 到 59.5% 不等。在验证集中,系统以 AUC 为 0.99(95% 置信区间 [CI],0.98 至 0.99)区分有视乳头水肿的视盘与正常视盘以及有非视乳头水肿异常的视盘,以 AUC 为 0.99(95% CI,0.99 至 0.99)区分正常视盘与异常视盘。在 1505 张照片的外部测试数据集中,该系统对视乳头水肿检测的 AUC 为 0.96(95% CI,0.95 至 0.97),灵敏度为 96.4%(95% CI,93.9 至 98.3),特异性为 84.7%(95% CI,82.3 至 87.1)。
投资周期较长,业务前景不明朗,具有较高的风险性和不确定性,需要通过直接或间接投资进行探索,以便公司及时进入新的业务领域。首次披露于《核心员工投资创新业务管理办法公告》(www.cninfo.com.cn)。
保留所有权利。未经许可就不允许重复使用。(未经同行评审证明)是作者/资助者,他已授予Medrxiv的许可证,以永久显示预印本。
视障人士在从事与环境、社会和技术相关的活动时遇到困难。此外,他们在日常生活中也难以独立和安全。本研究提出了基于深度学习的视觉对象识别模型,以帮助视障人士使用安卓应用平台进行日常生活。本研究主要关注金钱、衣服和其他基本物品的识别,以使他们的生活更轻松。基于卷积神经网络 (CNN) 的视觉识别模型由 TensorFlow 对象应用程序编程接口 (API) 开发,该模型使用单次检测器 (SSD) 和来自 Mobile V2 的预训练模型,是在 Google 数据集上开发的。视障人士捕捉图像,并将其与预加载的图像数据集进行比较以进行数据集识别。带有图像名称的口头信息将让盲人知道捕捉到的图像。物体识别实现了高精度,无需使用互联网连接即可使用。视障人士尤其从这项研究中受益匪浅。