Hi 大家好,
我是Leo,一名程序员。目前在进行AI 领域的业务开发。
关于这个赛道,用领导的原话说就是 ”大家都在摸着石头过河”。
(相关资料图)
我自己也是对这个领域相关技术也是非常感兴趣,恰好公司在要求我们在完成业务功能开发的同时,也可以补充相关行业知识。
毕竟“不懂业务的开发不是好厨子” 所以希望可以每天在这里可以抽出一部分时间进行输出,来确保信息转化为知识。
新人上路,期待大家的一键三连哟,求投币,求推荐,求转发!
人工智能正在引领人机交互的第三次变革
随着ChatGPT、new Bing Chat、Google Bard、Claude 等可以像人一样进行对话的聪明程序在今年爆发,极有可能推动人机交互模式的第三次更新。从“告诉机器,要做什么、如何做” 到 “告诉机器,想要什么结果”。
人机交互:通过鼠标,键盘,屏幕,语音识别等形式与计算机交流。
重点关注显示界面,响应速度,用户友好等指标因素。
我们先来看一下人机交互的前两次变革:
第一代:输入指令 - 输出结果
在1946年,世界上第一台通用计算机诞生时,用户与计算机的沟通模式,是把设计好的指令批量提交给计算机,并等待计算机的输出。(指令和输出往往是一叠打孔卡片)
在这过程中,指令和计算机不能出任何错误,哪有有一丁点错误,就不会有任何输出或者输出的结果毫无用处。
从人机交互的角度来看,此时的交互并不算完整意义上的互动。用户只是提交一叠打孔卡片。然后静静地等待计算机的输出,这样既不方便观测计算机运行时的状态,出了问题也不方便判断。往往会花费更多的功夫在人机交互上的准确度上。
第二代:基于命令的人机交互
在1964年,多个用户共享一个终端逐渐成熟。这样就更新出了新的人机交互模式:用户和计算机轮流运行。
说起来很简单,自打这以后,这个人机交互范式主导到今天
命令行:如DOS和Unix
全屏文本终端:如IBM 的大\小型机
图形用户界面(GUI):现在生活中常用的电子产品手机,电脑,Pad
基于命令的人机交互模式,使用户不需要在心中完全确定一个目标,可以根据计算机即时反馈的信息来进行调整。
虽然在早期命令行或终端大多不会很及时的反馈计算机信息。一般只有在特定的时候,计算机才会有输出。这样导致人机交互的灵活性并不理想。
而到了图形用户界面,随着软件设计越来越成熟,用户界面这种交互形式一直处于人机交互的主导地位。
虽然用户界面这种交互模式已经日益成熟,我们可以看到的电子产品,已经在人机交互上下了大功夫进行优化。但是对于一些特殊类型的软件,比如搜索引擎:谷歌、百度。又或者一些专业性比较强,有使用门槛的软件,这种用户界面交互模式也存在一些弊端。
据调查发现,即使是各项素质水平都相当优异的国家,也有近一半人的表达不是很清晰(人人,人机)。基于此,就无法从命令交互模式中轻易的获取最好结果。
未来:交互控制变革
直到今年,才有可能受人工智能领域发展的影响,更迭出更优秀的人机交互模式。
举一个例子:
如果你想要作出一副图画作为封面,要求内容是 “一个穿着太空服的牛仔,站在一个没有氧气的行星上,天空中有两颗红色的月亮”
这个要求如果使用 2021 版的Photoshop(PS.作图工具)最少要在软件上交互上百次,才有可能逐步作出插图。
而现在,只需要使用引入了AI(人工智能)的作图工具,就可以在几秒内生成多张图片
未来在由人工智能推动的交互模式会是
“用户告诉计算机所期望的结果,同时可选择指定如何完成这个结果。”
与传统的基于命令的交互相比,新的人机交互模式颠覆了之前的范式,既用户作为控制中心,计算机被动输出信息。
在上面的案例中,如果用户对计算机输出的画作不满意,可以继续进行沟通和调整。来达到自己心中所想。
目前各大AI 厂商也在为AI 的可用性进行不断的优化和改进。
有生之年会看到一种更和谐的智能交互
虽然 “完全按照用户的想法进行输出” 是一种很诱人的交互方式。
但是这样的交互方式也会存在一些弊端,比如用户因为表达问题或者自然语言解析问题进行了错误的执行,同时用户也不知道如何改正时,这并不能完全达到用户预期。
所以,目前可以预见地在屏幕上点击等指令模式还是非常重要的交互,应该会继续存在,在未来的人工智能系统里,大概率会混合控制反转+ 人为指令的多种界面。
一想到未来的软件都内嵌了AI ,作为一名程序员还真的是会很兴奋呢!
Reference:/articles/ai-paradigm
关键词: