多点触控(英语:Multitouch,也称Multi-touch) 意即一些让电脑用户透过数只手指达至图像应用控制的输入技术

Thumb
可以使用多点触控的触摸屏

要使用多点触控技术,设备必需配备触摸屏触摸板,同时需装载可辨认多于一点同时触碰的软件,相较之下,标准的触控技术只能辨认一点,是其之间最大的分别。 能让电脑感受到物理上的触碰的事物包括:热力、指压、高速摄影机、红外线、光学感应、电阻改变、超声波接收器,微音器、激光波幅感应器及影子感应器等。[1]

现时已有若干多点触控的应用及计划。有些目的是令输入更个性化(例如:MacBook系列、iOS手机、IPadOS平板电脑、Android手机和平板),不过这种技术最主要的目的是带来人机交互新时代。

多点触控技术

多点触控技术分为很多种,但以下列4种较成熟。

LLP(laser light plane)

首先由微软在他们的LaserTouch项目中推出,并由NUIGroup社群继续发展[2]。该技术运用红外激光设备把红外线投影到屏幕上。当屏幕被阻挡时,红外线便会反射,而屏幕下的摄影机则会捕捉反射去向。再经系统分析,便可作出反应。

FTIR(Frustrated Total Internal Reflection)

屏幕的夹层中加入LED光线,当用户按下屏幕时,便会使夹层的光线造成不同的反射效果,感应器接收光线变化而捕捉用户的施力点,从而作出反应。

ToughtLight

这是由微软所开发,原理与Microsoft Surface相似。运用投影的的方法,把红外线投影到屏幕上。当屏幕被阻挡时,红外线便会反射,而屏幕下的摄影机则会捕捉反射去向。再经系统分析,便可作出反应。

Optical Touch

屏幕顶部的两端,分别设有一个镜头,来接收用户的手势改变和触点的位置。经计算后转为座标,再作出反应。

沿革

多点触控技术于1982年由多伦多大学发明的感应食指指压的多点触控屏幕。同年贝尔实验室发表了首份探讨触控技术的学术文献。

贝尔实验室

1984年,贝尔实验室研制出一种能够以多于一只手控制改变画面的触屏。同时上述于多伦多大学的一组开发人员终止了相关硬件技术的研发,把研发方向转移至软件及界面上,期望能接续贝尔实验室的研发工作。

1991年此项技控获取重大突破,研制出一种名为数字桌面的触屏技术, 容许用户同时以多个指头触控及拉动触屏内的影像。[3][4]

Fingerworks公司

1999年, Fingerworks的纽瓦克公司的经营者特拉华大学学者约翰埃利亚斯和鲁尼韦斯特曼,生产了的多点触控产品包括iGesture板和多点触控键盘。[5] 经过多年维持专利的iGesture板和多点触控键盘,终于在2005年,被苹果电脑(现已改称苹果公司)收购了。

近期发展

踏入二十一世纪,相继有不同公司对这项技术作进一步研发。2007年,苹果及微软公司分别发表了应用多点触控技术的产品及计划-iPhone及Surface Computing,令这项技术开始进入主流的应用。特别是iPhone,应用这种输入界面让用户能大大扩大可操纵的比例言,引起大众对使用多点触控电脑的兴趣。继微软Surface Computing后,SONY亦发表采用Atracsys多点触控技术接口的产品SONY atracTable

未来发展

多点触控技术将会变得愈来愈普遍。例如,2006年发售的带有多点触控技术的手机由21万部,增至2012年的2100万部。[6]

使用多点触控技术的产品

多点触控技术不仅应用在触摸板鼠标,现今主要发展将此技术用于内嵌触摸屏上使用,例如电脑显示器等产品。

2009年,苹果公司推出新鼠标Magic Mouse,采用承袭自iPhoneiPodTouch idMacBook的多点触控技术,把所有鼠标按键、滚轮都拿掉,只以一整片多点触摸板,就能提供等同一般鼠标的左、右键,以及360度滚轮功能,并能以两指操作更多手势功能[7]

参考

参考文献

外部链接

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.