群组信息 私有

administrators

  • ROS基础知识

    ROS 简介

    1. 什么是ROS
      ROS 是 Robot Operation System 的简称。是专门为机器人控制开发的系统。和一般的操作系统相比增加了软件包管理,信息通信框架等。同时这个系统对硬件进行了抽象使得各个组件之间的耦合更低,程序开发也更加方便快捷。

    2. ROS 能在哪些平台上使用
      ROS官方版本基于Ubuntu进行开发。所以无论是arm架构还是x86架构都可以使用。即使你所使用的平台无法安装Ubuntu或者Debian,只要能够安装Linux系统就可以从源码编译安装ROS。OSX也可以安装ROS,不过是测试版本,安装使用过程中可能会遇到问题,并不推荐大家使用。Windows的ROS已经实现,但并未完全开发完成。

    3. ROS的版本区别
      ROS每年5月发布一个版本。其中单数年份发布为短期版本,支持时间为2年。双数年份发布的版本为长期支持版,支持时间为5年。最新的长期支持版是Kinetic Kame。现在一般网上的教程是基于Hydro或者 Indigo。这些教程和Jade和Kinetic版本是通用的。
      不同版本之间并不完全通用。比如你的机器人的系统是Indigo的,但是你的本地操作系统是Jade的那么系统间通信就有可能会出现消息格式不匹配的情况。所以不同系统间的版本尽量保持一致。

    4. ROS的学习路线
      ROS开发中主要使用的语言是C++和Python,你需要对这两种语言都比较熟悉。同时ROS基于Ubuntu操作系统,这也要求你对Ubuntu比较熟悉。
      首先你可以先读完这篇文章,对于ROS的架构和基本概念有一个初步的认识。然后看官方wiki中的Tutorial
      同时Learning ROS for Robotics Programming Second Edition也是一个不错的选择。
      在对ROS比较熟悉之后,如果你想了解更多关于ROS设计方面的东西可以看看REP
      如果想要了解关于ROS2方面的信息可以看这里
      在实际使用中会遇到很多问题,欢迎在我们的ROS交流群中提问(538456117)
      当然想要更深入的了解ROS,阅读源代码也是一个不错的选择
      ROS源代码
      ROS2源代码

    1. ROS的未来
      ROS虽然大大方便了机器人开发,在业内有很广泛的应用,但是实际使用中还是有挺多问题。比如稳定性,网络带宽和多机器的情况下的自动连接等等。这些功能都会在ROS2中实现。随着ROS的不断发展,相信其在机器人行业会有越来越好的发展前景。

    ROS的架构

    ROS与其说是操作系统其实更像一个通信框架。ROS的基本单元是节点(Node)。节点之间可以通过订阅和发布Topic进行通信。节点的基本信息会存储在Master里面。下面以一个例子具体说明。假如我们现在有一个激光雷达,然后我们想要通过图形界面显示雷达的数据。那么整个结构就如下图所示

    0_1506330911799_QQ截图20170925154958.png

    激光雷达有一个节点叫做hokuyo,图形界面有一个节点叫做viewer。激光雷达节点从传感器读出数据之后,首先告诉Master自己在发布一个叫做scan的topic。然后在本地监听2345端口,等待其他节点连接。图形界面节点viewer启动之后,首先告诉Master自己在订阅一个叫做scan的topic。这时候Master就会告诉viewer节点谁在发布scan。Viewer获得到hokuyo的地址和端口信息后和hokuyo节点建立TCP连接。这样激光雷达的数据就从hokuyo节点发送至viewer节点了。
    通过这种架构可以实现节点的分布式处理功能。即不同的节点不要求一定在同一个机器人上。比如上例中的激光雷达节点和viewer节点就可以在不同的机器人上。也可以进一步实现多台机器人的调度。

    ROS的基本概念

    从上例我们可以看出ROS中有以下几个比较重要的基本概念

    1. Master
      Master就是存放各种节点和topic信息的地方。节点之间通过Master了解到对方的信息。同时在Master的帮助下节点之间建立网络连接。
    2. Node
      基本的ROS计算单元。
    3. Topic
      节点之间的通信通道
    4. Parameter Server
      参数服务器。在使用过程中可能不同的节点间要共享一些参数。这些参数就可以放在参数服务器里面。其作用就类似于不同节点公用的全局变量。在上面的例子中没有用到参数服务器。

    ROS的安装

    下面以Kinetic版本为例说明ROS的安装方法。

    1. 安装Ubuntu 16.04
    2. 添加ROS源
    sudo sh -c 'echo "deb http://packages.ros.org/ros/ubuntu $(lsb_release -sc) main" > /etc/apt/sources.list.d/ros-latest.list'
    
    1. 添加源的key
    sudo apt-key adv --keyserver hkp://ha.pool.sks-keyservers.net:80 --recv-key 421C365BD9FF1F717815A3895523BAEEB01FA116
    
    1. 安装
    sudo apt-get update
    sudo apt-get install ros-kinetic-desktop-full
    
    1. 初始化rosdep
    sudo rosdep init
    rosdep update
    

    ROS的环境变量

    ROS运行时依赖一些环境变量,所以我们要把其添加到自己的终端配置文件中。

    echo "source /opt/ros/kinetic/setup.bash" >> ~/.bashrc
    source ~/.bashrc
    

    这样就会在bash中添加source /opt/ros/kinetic/setup.bash这样一行语句。每次打开一个终端都会执行上面的脚本。这个脚本会设置ROS相关的一些环境变量。

    下一步

    ROS tutorial

    发布在 技术交流
  • 剖析谷歌ARCore:核心功能和与苹果ARKit的异同点

    8月30日,谷歌突然重磅发布了属于安卓系统的AR SDK——ARCore,并号称将要安装到一亿台安卓设备上,目前三星S8和谷歌自家的手机Pixel已经都获得了支持。这一步,被普遍解读为对苹果六月份发布的ARKit的正面回应。

    苹果在移动端AR上来势汹汹,ARKit一发布就刷了科技圈的屏,涌现出无数的开发者demo。相比之下,谷歌此前推出的需要TOF深度传感器使用的Tango平台,一下子似乎被拍死在了沙滩上,乏人问津。但如今,谷歌的ARCore不需要再仰仗TOF,而是和ARKit类似,直接使用手机的单目RGB摄像头,加上内部的IMU就能实现AR。这让不少人安卓开发者为之兴奋。

    可以想象,两大移动互联网领域的超巨头在不远的未来,基于手机端AR必有一战。那么,ARCore底层技术的实现原理为何?是否有谷歌说得那么神?相比ARKit又有何异同和优劣势?

    0_1505179258115_upload-d27dcb4c-8418-4e08-a1d9-5acac109c9ef
    青亭网第一时间联系了专注于AR领域的源视感科技CEO周凡,他连夜阅读了ARCore的代码,并对谷歌放出的demo进行了逐帧分析。下面请看他带来的第一手报告:

    1

    Apple的ARKit发布之后, 市场一片欢腾。经过一段时间的低潮后,对于AR的热情再一次被点燃。就在苹果沾沾自喜(我猜的)、安卓开发者表示强烈不满时(也是我猜的),谷歌昨天发布了Tango之后的单目+IMU增强现实方案——ARCore。

    目的很明确,连名字都很霸气的相似——就是要怼ARKit去的。作为AR技术的先驱, 谷歌果然出手不凡,一次性在Github上放出三个SDK,涵盖安卓原生、Unity3D和Unreal平台。虽然没有像上次的SLAM方案Cartographer那样直接开源,但是对应用开发者,无论是手机端,还是嵌入式设备都算非常的友好了,貌似要一统开发者天下。

    2

    解密三大核心功能

    连夜读了有限的代码,可以看出ARCore的核心功能有三个:相机姿态估计, 环境感知及光源感知(Light Estimation)。由于资料有限,只能做一个大概的估计与分析。

    0_1505179350711_upload-817c3e91-222c-4b04-9765-3ff75c9a880c

    前两个功能,研究SFM、SLAM的同学应该不陌生了—— 前者通过单目相机读取图像,通过特征的匹配估计相机的运动轨迹。但是ARCore极有可能用的不是常见的特征匹配法。这里先卖个关子,下文再详细分析运动轨迹的估计方法。

    至于环境感知功能,名字起的很高大上,但具体实现的功能其实就是检测平面。这样做的好处就是在现实环境中放置虚拟物体的时候位置相对合理,不会出现类似物体悬空,或者在斜面上仍然处于水平的姿态。

    第三个光源感知功能,按照谷歌官方的说法是,ARCore能感知现实世界的光源位置,使虚拟物体能够形成相应方位的影子,从而增加虚拟物体在现实世界里的真实度。这个功能堪称惊艳!从谷歌发布的Demo视频里看, 虚拟物体的影子确实是根据光源形成了相对应方向的影子。

    0_1505179373158_upload-3d38f911-af14-418e-bfe1-ce060f7ba0a8
    但是分帧仔细分析视频后, 发现该功能在强光源的状态下效果才不错,在散漫光源的情况下就一般般了。

    个人估计:是因为使用的匹配算法的原因。这样,我们就要回到刚才卖关子的ARCore第一个核心功能——姿态估计上,进行具体分析:

    传统的特征匹配方法只计算关键点和描述,几十万像素的图像只用了几百个特征点,屏蔽了大部分可能有用的信息,更别说对灰度的估计了。所以,ARCore很有可能是使用了直接法来做相机位姿估计(对直接法感兴趣的同学可以去看看LSD, SVO, DSO等解决方案)。

    简单来说,直接法直接使用的是整张图片的像素信息,通过像素亮度来进行运动轨迹的估计。这样的好处是速度很快,直接跳过计算关键点与描述子的步骤。同时在有些缺失特征点的环境下,只要环境中有明暗变化,也能工作,如此大大的避免了跟丢的情况。

    0_1505179492699_upload-0ad65715-bca3-465f-a53a-8285f831b567
    直接法的数学推导就不详述了,但是该方案是基于灰度不变的强假设。换句话说, 就是同一空间的像素灰度值,在每张图像上都是不变的。这样就对光源的强弱及位置变化要求比较高,同时相机的自动曝光功能也需要关闭,使得图像不会整体变亮或者变暗。(这一点在外媒TheVerge的上手测试中有体现)

    ARCore的所谓光源感知功能估计就是基于像素灰度变化的计算。这也就是为什么不同的光源强度下,形成的影子的方向效果有好有差。谷歌果然聪明,在位姿估计的同时顺水推舟地发布一个光源感知功能,一石二鸟!形象一下子就盖过了ARKit。

    由于直接法完全依靠像素梯度优化来估计相机位姿,作为Ceres(谷歌推出的SLAM闭环检测算法)的东家,这点对于谷歌来说并不是什么难处。另外一个ARCore使用直接法的例证就是点云。

    3

    和ARKit相比如何?

    ARCore的SDK里是有点云功能的——由于Unity3D的Demo存在Bug,无法看到具体形成的点云是半稠密还是稠密的。但无论是半稠密还是稠密点云的构建,这都是特征法无法实现的。个人估计是半稠密的点云。如果ARCore在没有GPU CUDA加速的情况下真构建了稠密点云,只能膜拜Google大法了。

    0_1505179620787_upload-f6cbff3a-9b37-4423-becd-2d76f10f25f9
    相比之下,ARCore能够实现的光源感知和点云功能,ARkit实现不了——如果ARKit是Metaio(苹果之前收购的德国公司)做的话,采用特征法的可能性大,这样就无法实现光源感知,点云理论上是能构建,但只能是稀疏的,基本上就是一堆点,看不出什么。

    至于ARCore整体的工程是SLAM还是VIO,个人的偏向还是VIO更有可能。就如ARKit一样,使用的场景更偏向于手机端,在场景不大的情况下,VIO作为定位方案已经绰绰有余,而且更加节省计算资源。

    无论如何,ARCore推出,补全了安卓市场在AR上的空白。基于安卓系统的市场占有率,苹果还敢说自己是最大的AR平台吗?

    本文来源: http://36kr.com/p/5090602.html

    发布在 行业动态
  • 无人驾驶公司“智行者”无人驾驶扫路机在北京某园区正式落地运营

    蜗小白无人驾驶扫路机共享了此前积累的“蜗必达”AVOS系统测试数据,因此可以快速部署。
    9月11日,北京智行者科技有联合百度Apollo 平台、烟台海德在北京某园区进行了无人驾驶扫路机-蜗小白的落地运营。其中无人驾驶扫路机-蜗小白隶属智行者低速无人驾驶“蜗Ω”系列,是无人驾驶作业车的一种。

    0_1505178780399_upload-e59454dc-735a-4078-b87e-56d8057919d6
    由左至右依次:百度Apollo运营及生态负责人张辉、烟台海德北京总经理李雪、智行者CEO张德兆

    蜗小白由烟台海德专用汽车有限公司(提供扫路机平台)、百度Apollo平台(提供高精度地图和定位技术)、智行者(提供无人驾驶整体解决方案)合作推出。蜗小白可以实现园区内自动避障、自主循迹、定点起停、自主扫地等智能功能,并通过WEB端,展示了无人驾驶扫路机全局地图及行驶路径,操作人员在值班室可对无人驾驶扫路机进行安全监控。

    在无人驾驶解决方案方面,蜗小白采用了百度Apollo平台提供的高精地图和定位技术。百度高精地图研发工作于2013年底启动,目的是攻克中国复杂道路环境,让无人驾驶车辆可以在中国道路上自由行驶。百度高精地图结合Simultaneous localization and mapping (SLAM)、深度学习、图像处理、计算几何等多种处理技术进行加工及制作,涵盖道路、车道线、交通标志、地面标志、红绿灯、护栏等丰富的道路信息,数据精度达到厘米级别。在这个园区类似的场景中,林荫道路非常普遍,传统的RTK定位技术由于GPS信号弱以及多径效应,无法满足稳定的高精度定位要求,而百度的定位技术可在城市高楼密集市中心、林荫路、隧道、地库等极具挑战的弱/无GPS场景下达到厘米级定位。

    其中一个值得关注的地方是,蜗小白由智行者提供无人驾驶整体解决方案,并搭载智行者自主研发的无人驾驶操作系统AVOS,该系统搭载多传感器自适应融合算法、环境认知算法、路径规划算法以及车辆控制算法,采用算法层与业务层剥离的策略,底层是通用型的算法平台,能满足智能驾驶的各种应用需求。

    0_1505178798639_upload-b5c53b11-550d-4690-b620-e0b1d17c3c63
    智行者自主研发的AVOS系统

    这不是智行者第一次涉足低速无人车领域,早在今年6月份智行者发布了蜗必达-无人配送物流车,蜗小白无人驾驶扫路机共享了此前积累的“蜗必达”AVOS系统测试数据,在短时间内智行者开发完成无人驾驶扫路机,这也是由于AVOS系统具有普适性,可移植性较强。

    本文来源:http://36kr.com/p/5092575.html

    发布在 行业动态
  • RE: 小强视觉巡航版的工作原理可不可以详细说明下,购买产品想要彻底弄明白是如何工作?谢谢!!

    @爱学习的小吴
    这份pdf文件里面有基本的原理介绍,
    伽利略系统产品手册.pdf

    发布在 技术交流
  • 强调送餐机器人的实用性,「普渡科技」已实现产品量化并出货数百台

    现在普渡科技的送餐机器人根据软硬件配置不同,分为低配、中配、高配三款,售价分别为2万元、3万元和6万元,4小时满充后可使用24小时。张涛表示,餐厅基本都可在一年甚至半年内回本。
    虽然“机器人换人”的呼声喊了很久,但以现在人工智能的发展程度,还远不能取代大多数服务工作,尤其是教育、医疗、旅游和其他高端服务。但是人工智能的确可以将很多人从高频而重复的“复印机”工作状态中解放出来,同时还可以提升工作效率。

    成立于2016年的深圳市普渡科技有限公司是一家室内、楼内、室外配送机器人研发和生产公司。普渡科技CEO张涛告诉36氪,他们选择从餐饮行业切入市场,看好送餐服务“以机替人”的前景,并推出了几款送餐机器人。

    餐饮行业中,菜品从后厨传到客人的餐桌,一般会经过送餐员和服务员两手服务。其中服务员需要帮忙上菜、介绍菜品、回答客人问题等,而送餐员的工作内容相对就简单很多,即单线或多线将菜品从后厨传递至服务员手中。这种简单、枯燥、重复的工作内容造成了送餐员工资低、流动率大的行业事实,餐厅对送餐机器人的需求也在逐年增长,以减少运营成本。

    此前也有很多餐厅引进了送餐机器人,但大多都是作为营销噱头来吸引顾客,并无法真正解决餐厅的痛点和需求。缺陷也主要体现在以下三方面,首先,外形多是机器人形,菜品运载量小。二是由于当时定位导航技术的局限性,需要在餐厅地面上铺设磁条或是轨道,控制机器人的行进路线,对餐厅改造较大。三是机器人运行的稳定性差。

    张涛告诉36氪,普渡科技的送餐机器人可以有效的解决以上问题。在运载量方面,单台机器人最多可设置5层托盘,一次出发最多可以设置5个目的地(即餐桌),同时普渡科技支持100个机器人之间的协作。在定位和导航方面,普渡科技使用了光雷达、视觉、UWB、编码器、IMU的多传感器融合方案,整体的定位、导航、避障精度可达厘米级,基本满足机器人在餐厅内的行进需求。而使用和机器人配套的软件产品,餐厅可以设定送餐模式(直达模式/巡航模式)、设定送餐点、云端监测运行状态、定制机器人屏幕广告等。

    0_1505178217840_upload-1d478fe0-cf1b-438a-8f69-eb797b1bf6b8

    至于稳定性方面,张涛表示多家餐厅自去年9月开始试用,现在已出货和正在出货中的产品有数百台。根据面积不同,每家餐厅会采购1-10台送餐机器人等,一台机器正常可替代一名送餐员。现在普渡科技的送餐机器人根据软硬件配置不同,分为低配、中配、高配三款,售价分别为2万元、3万元和6万元,4小时满充后可使用24小时。张涛表示,餐厅基本都可在一年甚至半年内回本。

    0_1505178244884_upload-e18b9a97-a8ec-42a8-85cf-57def417e535

    普渡科技现在的产品技术基本成熟,之后会不断迭代。张涛表示,他们现在注意力更多放在开拓市场方面。此前出货主要依靠10多家合作的代理商,未来还会通过参加展会等方式发展更多的代理商,普渡科技的精力则主要放在标杆性大客户项目上。

    张涛同时提及,送餐行业“以机替人”情形尚未大规模普及,需要更多同类企业共同去培养和教育市场。现在市面上可见的送餐机器人公司还有YOGO、穿山甲机器人和擎朗智能等。YOGO获得IDG数千万元融资,产品具备在场景变化时,可以重新学习场景的特性,不过YOGO的送餐机器人尚未推向市场。新三板公司穿山甲机器人推出的艾米送餐机器人售价在两万元附近,目前销售量已达到了数千台。获得云启资本和松禾资本数千万元A轮投资的擎朗智能目前基本实现了收支平衡,除了送餐机器人,擎朗智能还推出了引导广告机器人。

    普渡科技现有约20人,其中70%以上都是研发人员。始团队来自于香港科技大学、香港中文大学、香港大学、清华大学、中科院、中科大、西门子、腾讯、阿里巴巴、新美大、华为、大疆等著名高校和公司。

    公司此前获得属于上市公司长盈精密的产业资本的天使轮投资,以及未披露细节的Pre-A轮投资。现在普渡科技正在寻求A轮融资,主要用于市场拓展和新产品的研发。

    现场demo

    本文来源:http://36kr.com/p/5092216.html

    发布在 行业动态
  • 小强主机bios设置成通电自动开机

    通过设置bios里面的Restore AC P ower Loss选项,power off改成power on即可将主机设置成通电后自动开机。

    1.小强pro主机

    开机按Delete键进入bios,选择第三个Chipset选项
    0_1504495701957_IMG_1697.JPG
    选择第二个选项PCH-IO Configuration,进入后修改Restore AC P ower Loss选项
    0_1504495651688_IMG_1695.JPG
    0_1504495728422_IMG_1696.JPG
    F10保存退出,完成操作

    2.小强mini主机

    开机按Delete键进入bios,选择第三个Chipset选项
    0_1504495919335_IMG_1698.JPG
    选择第二个选项South Bridge,进入后修改Restore AC P ower Loss选项
    0_1504496101943_IMG_1699.JPG
    0_1504496120036_IMG_1700.JPG
    F10保存退出,完成操作

    发布在 产品服务
  • rqt_graph报错global name 'dot_parser' is not defined

    产生这个问题的原因是rqt_graph用到了pydot而pydot默认版本只支持pyparsing < 2.0版本。而现在系统中pyparsing的默认版本是大于2.0的。幸运的是新版的pydot已经解决了这个问题。所以解决方法很容易,就是升级pydot的版本。

    sudo pip install -U pydot
    
    发布在 技术交流
  • 饮冰科技,6000元价位的单线200m激光雷达

    替代文字
    替代文字
    饮冰科技的CEO金元浩原本是清华物理系的博士,曾在清华与富士康合作的清华—富士康纳米中心实验室和鸿海集团从事激光电子方面的相关研究。饮冰科技是他与两位哈工大的本科校友在去年 4 月共同创办的。

    创业之前,一次偶然的机会,金元浩去参加启迪之星的汽车论坛,并由此参观了长安汽车的主机厂。看到自己相熟的领域自然就会多留意一些,而他当时比较惊奇的是,激光雷达正在逐渐成为很多出厂汽车的标配。

    “这个东西我们自己也可以做”。

    回去后,金元浩就邀来两位同学一起组建了团队,并在一年后有了眼前这两款产品:一款单点的激光雷达和一款单线激光雷达。

    LiDAR创业还有机会吗?这家公司想凭单线激光雷达杀出重围

    负责硬件和技术方案设计的姜波是清华硕士,曾参与主持星载激光雷达(主要用于航空探测)、神州八号交会对接激光雷达、月兔月球车导航与避障激光传感器等国家级项目;赵忠尧则负责产品数据处理及软件设计,曾获飞思卡尔全球智能汽车竞赛国家级奖项,并担任全国智能汽车竞赛实验室负责人。

    饮冰的单点激光雷达体积为 205030mm,单线激光雷达为 80*90mm,两者测试距离都可达到 200m(可根据要求调为 200m 以下),精度为厘米级。

    发布在 行业动态
  • 小强ROS机器人教程(24)___使用ROS topic控制蓝鲸电机套件

    蓝鲸电机套件和小强底盘的控制方式是一样的,即通过串口控制,通信协议也是一样的。下文将演示借助bw_motors包在ros中同时控制两个电机的速度的详细步骤。

    基础概念:

    1.两个电机mA、mB分别对应驱动板中的MA、MB接口所接入的电机,mA电机又称为左电机,mB又称为右电机
    2.电机套件usb转串口模块接入小车主机后,在dev目录下一般会自动添加ttyUSB1设备。如果主机还插有其它usb转串口模块,可能不会是ttyUSB1
    这个名字,蓝鲸电机套件接入主机指定的usb口“电机串口”,这个名字可以自动固定为stm32Motor,这是由udev规则实现的,小车出厂时已经配置好。
    3.电机的速度是通过bw_motors包中的Motors这个topic类型来指定,里面有两个8位整数变量,分别对应左右电机的速度。这里的速度是百分比,取值范围-100到100,对应最大反转速度到最大正转速度。例如:-50 表示以最大反转速度的百分之五十运动,50表示以最大正转速度的百分之五十运动。

    bwbot_motors包的安装与启动:

    1.下载与安装

    #以小强平台为例,其它平台请修改对应ros工作空间目录
    cd ~/Documents/ros/src
    git clone https://github.com/BlueWhaleRobot/bw_motors.git
    cd ..
    catkin_make
    

    2.启动驱动

    rosrun bw_motors motors_control.py  _port:=/dev/stm32Motor
    

    3.驱动启动后,motors_control.py会持续监听/bw_motors/cmd这个topic,将这个topic内容转换成电机控制命令,最后通过串口下发给电机套件进行控制。

    在ros中发布两电机速度控制量:

    1.首次测试,为了防止电机飞转造成安全事故,请把电机负载悬空使电机可以自由空转。紧急情况下,关闭motors_control.py的运行即可制动电机。
    2.发布话题/bw_motors/cmd

    #mA_speed后面值-10可以修改成为-100到100内的任意整数,对应左轮电机速度控制量
    #mB_speed后面值10可以修改成为-100到100内的任意整数,对应右轮电机速度控制量
    rostopic pub bw_motors/cmd bw_motors/Motors '{mA_speed: -10, mB_speed: 10}' -l
    

    3.现在电机开始运动,修改mA_speed、mB_speed值即可改变电机速度,切断motors_control.py的运行可以制动电机。

    发布在 产品服务
  • win10 Run-time error '8020' Error reading comm device

    在win10中使用vb的串口控件操作串口外设时,可能会出现下列问题

    Run-time error '8020'
    Error reading comm device 
    

    此时用其它非vb程序却可以正常操作串口,在google搜索的话只能找到一堆说MSCOMM32.OCX控件与win10系统不兼容的答案。最后通过安装PL2303_Prolific_DriverInstaller_v1_12_0 这个版本的usb转串口驱动后,问题成功解决。

    总结: 在非vb程序可以正常操作串口情况下,驱动应该说已经安装成功了,但是vb程序仍然此时仍然可能无法使用串口,。

    发布在 技术交流

与 蓝鲸技术论坛 的连接断开,我们正在尝试重连,请耐心等待