人工智能(AI)的浪潮正势不可挡地占据了软件应用开发的前沿。现在,除了传统的C级技术领导角色之外,评论家、行业分析人士、AI倡导者以及新设立的首席人工智能官(CAIO)等职位也相继出现,成为这一领域的新补充。
当前讨论主要集中在三个层次上。首先是支持人工智能所必须的计算能力背后,需要建立的后端基础设施;其次,行业内部对于中间层面也展示出了关切,尤其关注于制定相关标准(安全措施)以及对人工智能处理个人可识别信息(PII)所带来的风险进行担忧;最后,在应用层面,人们不仅关注于开发旨在辅助人类工作的协作工具,同时也越来越关注AI机器人创建甚至拥有自己的社交媒体账户的现象。
随着预测性、反应式和生成式人工智能越来越普及,新兴服务纷纷将自然语言处理(NLP)作为核心技术,这也推动了LLMs(LLM)的广泛应用。其中,一些如OpenAI的GPT、Google AI的PaLM支持下的Bard、Anthropic的Claude AI、Meta的LLaMA、BLOOM和Ernie Titan等技术,已经广受人们熟知。然而,构建这些高级模型所涉及的资源、时间成本和技术门槛使得不少机构难以自主开发,进而激发了行业内部关于如何选择恰当的先进模型,以及如何深度解析它们内部逻辑的讨论。
面对降低技术复杂度的诸多挑战,IT团队需要明确如何有效利用这些AI核心组件。同时,为了简化这一进程,我们还需考虑哪些自动化策略可以采纳。这些针对如何优化人工智能技术应用的问题正逐渐成为行业讨论的中心话题。
01
确定适合特定任务的LLMs
Appian低代码软件平台和流程自动化解决方案顾问Ysanne Baxter指出,当组织评估不同的LLMs时,首要任务是确立自己面临的业务挑战或改进机会。在此基础上,组织需要深入分析相关的任务流程及涉及的人员,以此来构建精准的应用场景。他强调,认识到每款模型都有其独特的架构、训练数据、优势和应用范围的重要性。商用的LLMs通常是其他项目的底层支撑,它们提供了一个平台以便用户进行进一步的定制或针对特定任务的开发。这类模型设计时考虑了灵活性和扩展性,特别是在处理庞大、多元且复杂的基础数据集时,往往能展现出更好的性能。
不同的模型架构可能会导致输出结果各异。模型需要先处理大量文本数据,比如针对产品或服务的客户评价。若组织意图从中识别关键观点或主题,这些分析结果就可以帮助生成响应措施和新功能,从而提升产品质量。有多个模型可以处理此类任务,并且有工具可以用来同时训练多个模型。开发人员可以在流程结束后,根据实际的性能指标,评估这些模型的输出结果,从而选出最适合当前需求的模型。
总而言之,最关键的是确定适合特定任务的LLMs。如果一个组织已经清楚自己面对的问题或所把握的机会,并且对于所使用的数据与期望的结果有准确的理解,那么在评估并选择与手头任务最匹配的模型时,就能从一个坚实的基础出发。
02
LLMs是低代码的加速器
在机器学习/人工智能领域,很难找准一个合适的切入点。对此,Baxter指出,低代码开发工具以其易用性显著降低了这种复杂性。开发者可以利用这些工具快速启动项目,而这背后得益于专家团队对相关技术的深刻洞察。新任务的开展无需从零开始构建全新模型,反而是可以依靠该团队在机器学习/人工智能工具上的长期研究和开发成果来实现目标。他认为,低代码的路径实际上是一种跨学科合作的体现,它允许将这些领域的知识与自己的专业能力相结合,以一种快速并与组织的需求紧密结合的方式来运用。Appian团队指出,在多种情形下,现成的低代码人工智能工具已经可以满足需求。例如,许多电子邮件服务商都利用自然语言处理技术来过滤垃圾邮件。开发者通过选用适合特定AI场景的低代码工具,可以大幅提升工作效率,避免了重新设计已有产品或功能所需的大量时间投入。Baxter还提到,低代码工具使得开发者能在行业顶尖工具的基础上进行扩展和构建。通过采用低代码方法,开发者在应用现成的LLMs开发新的AI解决方案时,能够在短时间内实现高效率、高产出和强大的影响力。然而,在整个开发过程中,对个人信息和敏感任务数据的保护依然至关重要。使用现成的LLMs时,通常不会涉及敏感数据的识别问题。举例来说,用户可能会输入英国国民保险号或美国社会保障号码到ChatGPT中,但据Baxter了解,就模型本身而言,目前并未有有效的机制来防止这些信息被完整吸收和传播。
03
开源还是闭源?
开源项目的优势在于可以让人们审查源代码,并据此评估其有效性。这一点在人工智能领域尤为关键,因为高性能人工智能模型需要庞大的数据集,进行数据分析既耗费时间又复杂,有时甚至难以执行。因此,对其影响力和重要性的评估显得尤为重要。与此相对,闭源模型像“黑盒”一样,难以对其内部运作进行透彻的审视。虽然技术的完全透明是理想状态,但要保护数据,透明度并非唯一选项。Baxter提出了一种技术来提高生成型语言模型的准确性和可靠性,即检索增强生成(Retrieval-Augmented Generation,简称RAG)。这一方法将人工智能模型与外部知识库相结合。首先,需要确保所选数据集适用且目标明确。其次,要执行有效的访问控制,并制定全面的策略,以确保从数据源中清除任何敏感或机密信息。最后,系统接收的查询请求也需要进行验证。目前业界对RAG技术持乐观态度,认为它通过额外链接到可靠或至少公认的数据源,增强了验证人工智能处理数据的潜力。
04
提示注入技术对AI模型的影响
提示注入技术的研究至关重要,这项技术能够以多种方式改变AI模型的反应。提示注入的形式多样,包括基本的注入攻击、利用不同语言提问的翻译注入、数学注入,以及同时针对不相关内容提问的上下文切换注入技术,比如同时询问有关希腊假期和阿拉巴马州卷心菜价格的问题。这些技术可能会违背原先设定的模型指令或安全措施,影响模型未来的输出结果。攻击者会利用系统的漏洞进行提示注入,从而产生开发者未预期或未授权的答复。Baxter指出,尤其在涉及自然语言处理时,确定系统漏洞并防范提示注入颇具挑战。由于自然语言的灵活性,攻击者可以更加自由地绕过安全防护。与需要精确语法的SQL注入不同,自然语言的处理标准远不如此严格。因此,确保用户输入的验证与净化是必不可少的。开发者应当分享这些安全工具的实施和应对策略,帮助网络安全领域的同事加强防护。
05
未来发展轨迹
在讨论人工智能的未来发展和LLMs如何更好地融入现代企业软件系统时,业界的观点普遍倾向于,未来的LLMs将更精准地服务于特定的应用领域。
Baxter也赞同这一见解,他预计LLMs将更多地针对特定行业和任务进行优化。尽管市场上已有泛用型和专用型的模型解决方案,但未来的发展方向是提供既能贴合行业需求又能灵活适应特定场景的产品和服务。
值得欣慰的是,这一趋势并非仅仅是技术简化导致的复杂性增加。相反,新兴AI技术的开发和应用需要软件开发者、行业专家,以及非技术人员的共同努力。
前进的道路需要采取一种“协作且周到”的策略,确保不会因缺乏参与而导致这条前进之路变得荒凉。
文章由LowCode低码时代编译发布,如有侵权,请联系删除。
– END –
大佬观点
西门子低代码-王炯 | 西门子低代码-阮铭 | 微软-李威 | 微软-徐玉涛 | 葡萄城-李佳佳 | 葡萄城-宁伟 | SAP-陈泽平 | 华为-周明旺 | 华为云-董鑫武 | 钉钉宜搭-邵磊 | 轻流-严琦东 | 腾讯云微搭-骆勤 | 网易数帆-陈谔、严跃杰 | 百特搭-姜楠
用友-刘鑫 | 数睿数据-张超 | 奥哲-朱鹏喜 | 炎黄盈动-汤武 | 普元信息-孟庆余 | 得帆-李健达 | 瀚码技术-钟惟渊 | iVX-孟智平
Treelab-何浚炫 | 阿里-汪凤震 | 明道云-薛晨 | 上海斯歌-傅正斌
公众号后台回复【加群】