(资料图)
编程客栈()6月21日 消息:Salesforce的一项新调查发现,68%的员工表示,生成式人工智能将帮助他们更好地为客户服务。
Salesforce的Generative AI Snapshot Research调查了4000多名全职员工。研究发现,73%的员工认为生成式人工智能会带来新的安全风险,尽管大多数人使用或计划使用该技术。
约67%的受访者表示,生成式人工智能将帮助他们从其他技术投资中获得更多收益,如其他人工智能工具和机器学习模型。员工估计,使用生成式人工智能平均每周节省五个小时。
尽管有兴趣使用ChatGPT等工具来改进他们的工作流程,但超过一半的员工告诉Salesforce,生成式AI输出是有偏见和不准确的(分别为59%和54%)。高管和所有者是向Salesforce承认他们知道如何使用可信任数据的生成性人工智能工具的最大群体,占83%,其次是董事总经理,占79%。最低的是那些没有管理责任的人,仅占29%。
在使用生成式人工智能的要求方面,60%的受访者表示需要人工监督,而59php%的受访者表示企业应采取增强的安全措施。大约58%的受访员工表示,使用ChatGPT等工具需要可信的客户数据,而同样数iQAOSfzsj量的员工表示,引入道德准则也是必须的。
“生成式人工智能有可能帮助企业以新的、更个性化的方式与受众建立联系,”Salesforce首席道德和人道使用官Paula Goldman说。“随着公司采用这项技术,企业需要确保有道德准则和护栏,以便安全可靠地python开发和使用生成式人工智能。