Menu
您的位置:首页 > 宏观产业 >

喜讯!江苏图客荣获“物联之星”RFID行业年度新锐企业奖

新闻来源:网络整理  2021-04-27 19:02:06

从2020年12月到2021年3月,历经3个多月时间,经过企业自主申报,大众投票预热、专家评委投票环节,江苏图客机器人有限公司凭借产品卓越的技术创新与公司优秀的业绩,从近200家RFID全产业链的参评企业中脱颖而出,荣获第13届“物联之星——2020年中国物联网(RFID)行业年度新锐企业奖”。2021年4月21日,江苏图客机器人高层应邀参加“IOTE 2021国际物联网展·上海站”现场领取奖杯和证书。

image.png

“物联之星”评选活动始于2008年,由中国物联网产业应用联盟及深圳市物联网产业协会主办,物联传媒承办。评选的宗旨旨在总结影响物联网进程的重要人物、产品和应用,树立物联网行业榜样,推动物联网行业的发展和普及,增强物联网行业的整体凝聚力,引导行业健康发展。物联之星年度评选遵循“公平、公正、公开”的原则,评选全程公开透明,不接受任何形式的企业赞助。最终获奖企业名单由千余位来自物联网产业上下游企业单位、机构院校、联盟协会媒体等单位的CEO、联合创始人、上市高管、技术专家、研究员、教授、主编等专家评委投票选出。其权威性和客观性深受业界人士的高度评价和普遍认可,被誉为中国物联网行业的奥斯卡奖。承载此次奖项颁奖仪式的“IOTE 2021第十五届国际物联网展·上海站”是中国物联网产业链一次最完整的展示,涵盖物联网感知层、网络传输层、运算与平台层、以及应用层,覆盖物联网、RFID、无线通讯、位置服务、物联网标准、物联网应用等专业高端论坛,汇聚官方、科研机构、厂商、用户多方资源,成为业内线下顶尖交流平台。

此次获奖的江苏图客机器人有限公司成立于2019年7月,是全球首台智能图书盘点机器人——图客的研发制造商,公司由图客机器人的研发者——南京大学智能机器人研究院院长、南京大学计算机软件新技术国家重点实验室陈力军教授团队创办,拥有多项国际专利与大奖,秉持“国际领先,国内首创”的创新型研发理念,致力于为图书馆等大型典藏环境提供先进的智能盘点机器人以及配套解决方案和服务。

公司推出的图客机器人是全球首台智能图书盘点机器人,由南京大学计算机软件新技术国家重点实验室陈力军教授团队和南京大学图书馆联合研发,融合物联网感知、计算机视觉、大数据处理、人工智能、移动机器人等高新技术,采用RFID(高频、超高频完美兼容)技术定位图书内嵌的芯片,实现精准的全自动图书盘点,替代人力对大规模典藏环境进行自动化盘点,帮助用户找寻错架、丢失的物资,避免经济损失。经已有用户实际运行统计,图客机器人每小时可扫描20000册图书,定位精度高达98%,达到了厘米级排序精度,证明图客机器人可有效解决了图书错架的问题。

图客机器人自问世以来,凭借其突破性创新、性能稳定以及优秀的综合素质,频频获奖,2018年度“第46届日内瓦国际发明展最高奖项——特别金奖”,2020年9月参加第22届中国国际工业博览会,在本届工博会高校展区参与评奖的共有69家高校携141个项目中,图客智能图书盘点机器人以其自身实力在众多展品中脱颖而出,不负众望地成功斩获“高校展区优秀展品最高奖——特等奖”,这是大会对图客机器人的高度肯定。

江苏图客机器人有限公司瞄准国际科学技术前沿开展基础研究和原始创新研究,凭借十余年技术积累与研发经验,致力于产生一流的原创性成果,率先研发并实现了图书馆智能化的管理,为图书馆建设事业树立了标杆,成为了国内智能图书盘点机器人研发制造行业的领军者。自成立以来,受到社会各界的广泛关注,央视(CCTV)、江苏卫视、湖南卫视、人民网、中国日报网和凤凰网等国内知名媒体都曾报道过图客机器人的相关新闻。2020年12月,图客机器人接受“湖南电视台专访”,向广大观众展示了图客机器人的工作模式,盘点效率高、定位准的优势,赢得图书馆和读者的好评。

截止2020年年末,图客机器人成功案例已超20家,在南京大学、武汉大学、中国农业大学、香港中文大学(深圳)、成都大学、同济大学、华东师范大学和宁波大学园区图书馆等多家高校图书馆,以及天津中新生态城图书档案馆等公共图书馆商业化部署,取得用户一致好评。运行至今累计帮助数万人次查找到错架图书,找到错架图书约50万册,避免直接经济损失超过数千万元,用户满意度和忠诚度高。

图客机器人是目前智能图书盘点机器人领域的尖端产品,已经成为未来“智慧图书馆”不可或缺的重要一员,江苏图客机器人今后也将继续在智能机器人领域继续钻研创新,围绕客户的需求持续创新、不断突破,为中国的物联网行业增添新的光彩。

免责声明:凡本网注明 “来源:XXX(非中国房产新闻网)” 的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

最新资讯

滚动播报

更多