• 发文
  • 评论
  • 微博
  • 空间
  • 微信

台积电要禁用ChatGPT?我们跟后者聊了聊……

OFweek电子工程网 2023-03-31 14:15 发布于广东 发文

近日来,ChatGPT的话题极其火热,让半导体行业也为之“沸腾”了一把。尤其是能提供大算力的AI芯片厂商英伟达等,更是饱受人们的关注。

不过,ChatGPT的横空出世也让市场产生一些反对的声音。

据报道,针对近日业界传出台积电禁止员工使用ChatGPT的传闻,台积电发言体系澄清,并未禁止员工使用,但强调不可以透露公司专属信息,也有提醒员工,在使用相关人工智能应用时,要注意个人隐私。

台积电也表示,为保护公司敏感资料并提升员工隐私防护意识,台积电自3月初起发布一系列内部公告,提醒员工应秉持“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则,谨慎使用网络工具如ChatGPT或Bing AI Chat等。台积电公司亦积极采取信息安全与机密信息保护机制,以维护市场竞争力并保障客户与合作伙伴权益。

01.ChatGPT怎么看这一消息?

笔者也特地跟ChatGPT聊了聊,来看看它对于这一消息的反应,以及芯片公司在安全风险上的相关话题。(以下截图源自与ChatGPT对话)

首先,笔者问其是否知道台积电这家公司,ChatGPT回答如下:台积电是台湾一家半导体公司,成立于1987年,主要生产半导体芯片和集成电路。台积电是全球最大的晶圆代工厂商之一,为全球知名半导体公司如英特尔、AMD高通等提供晶片代工服务。可以说这个回答中规中矩,也提到了台积电是“全球最大的晶圆代工厂商之一”这一企业最大的标签。

随后笔者向其告知“听说台积电要禁用ChatGPT”消息后,并询问其看法,ChatGPT的回答还是挺让人惊叹的。

它表示,自己作为AI语言模型,确实有很多潜在的用途和优势,但同时也存在一些风险和挑战。如果台积电决定禁用ChatGPT,可能是出于保护公司机密和数据安全的考虑,也可能是出于避免潜在的社交媒体风险的考虑。

ChatGPT甚至还明确表达了对于假如自己会被禁用这一做法的“支持”:我认为这是一种合理的做法,因为企业需要保护自己的利益和数据,同时也需要遵守相关的法律法规和道德规范。无论如何,我们应该认真对待AI技术的发展和应用,平衡好利弊,避免滥用和误用。

值得注意的是,基于台积电所提出的“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则上,笔者也依据上述原则向ChatGPT询问了一番,它的回答看起来也非常合理有了逻辑。

首先对于“隐私泄露”这个问题,ChatGPT表示自己本身不会造成隐私泄露。但是,如果您在使用ChatGPT时提供了个人身份信息或敏感信息,这些信息可能会被记录在日志文件中或在通信过程中被黑客攻击者截取,从而导致隐私泄露的风险。

此外ChatGPT还给出了很中肯的建议,用户不要提供个人身份信息或敏感信息,或者使用加密通信方式来保护您的隐私。同时也应该遵循网络安全最佳实践,如保持设备和网络安全更新,使用强密码和多因素认证等。

也就是说在使用过程中,ChatGPT确实不是百分百安全的,如果想要彻底的安全,那就需要用户自律,一点隐私都不要透露。

基于台积电表达的“不完全相信生成结果”这一原则,笔者也问了问ChatGPT。它的回答也很诚实,它会“尽力”提供正确结果,但是不能保证百分百正确。并且表示如果用户对于答案有疑问,还是需要进一步的核实和验证。

这一点其实也能理解,芯片公司的员工如果只是使用ChatGPT娱乐,那可能影响不大。但如果真的将其用在与工作有关的事情上,比如芯片设计或制造,或许还要再好好考虑下,对于这一点笔者也向ChatGPT求证了一番:

ChatGPT究竟能帮助芯片公司做哪些事情,它的回答涵盖了:客户服务、市场营销、技术支持、数据分析。总之,ChatGPT可以帮助芯片公司提高客户满意度,增加销售和改进产品和服务。

于是笔者进一步向其提问,ChatGPT能不能帮助进行芯片设计或者制造:

对于这个问题,它倒是给出了肯定的回答:无法直接帮助芯片设计或制造芯片!

不过ChatGPT可以提供一些有用的信息和建议,例如关于芯片设计中的算法和数据分析方面的知识,或者关于芯片制造过程中的质量控制和测试方面的建议。

此外,ChatGPT可以作为一个智能助手,与芯片设计或制造的专业人员进行交流,提供快速的响应和帮助。但是,对于芯片设计和制造的具体问题和挑战,需要专业的工程师和科学家来解决。

可以看到,ChatGPT对于各个问题的回答都非常严谨,可以说还是很难找到漏洞的,所以在最后笔者也想看看它对于自己在使用安全风险上的认知如何:

可以看到,跟台积电向员工表达的原则差不多,也是称ChatGPT本身是安全的,但建议:1.不要透露个人信息;2.谨慎点击链接;3.确认聊天对象。

确实如此,对于半导体公司而言,数据安全十分重要。因为半导体产业是一个资金投入大,技术积累深厚的行业,一旦涉及数据安全问题,无论轻重,都有可能对产线造成严重影响。

以台积电为例,在2018年8月台积电就曾在在台湾北、中、南三处重要生产基地遭遇勒索软件攻击而导致全产线停摆。对此事台积电表示,是病毒但并非电脑黑客的攻击,内部已经召开紧急会议。随后,台积电总裁魏哲家发表声明说病毒入侵事件是公司安装新机台(设备)时人为疏忽导致的。

6日下午生产线已经全部恢复生产。魏哲家表示此次病毒是勒索病毒WannaCry(永恒之蓝)的变种,越复杂的生产线越难恢复,因此对客户是有影响的,但生产制造资料、客户资料都没有受到病毒影响。魏哲家预估公司第三季度营收将减少约3%,毛利率约下降1个百分点。因此,也就不难理解这回台积电对于员工们使用ChatGPT时作出的要求和限制。

02.大佬呼吁“暂停巨型AI实验”

笔者注意到,在最近关于ChatGPT的呼声中,也并不都是一味地对于科技高速发展的支持。

由于可能涉及学术剽窃,法国顶尖学府之一巴黎政治学院最近就宣布了禁止使用ChatGPT,使用ChatGPT甚至或被整个法国高等教育系统开除。实际上此前美国教育界、大型科技公司亦曾限制学生、员工访问ChatGPT。

同样,软银也在上个月对使用ChatGPT和其他商业应用的员工警告:不要输入公司身份信息或机密数据;摩根大通限制公司所有员工使用ChatGPT聊天机器人;埃森哲则警告员工不要将客户信息暴露在ChatGPT中;富士通也在上个月向员工通报了有关ChatGPT和其他交互式人工智能服务的法律和道德问题,包括信息保护。甚至公司还成立了一个专门部门来决定人工智能的使用。

最新消息还显示,网上曝出了一封千位大佬的联名信,要封杀所有比GPT-4强的AI。在这封联名信上,目前签名的包括:图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、苹果联合创始人Steve Wozniak、纽约大学教授马库斯、马斯克,以及“人类简史”作者Yuval Noah Harari等等。

公开信表示,大量研究表明,得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,至少6个月。

这封千位大佬签署公开信刚刚曝光就引发了舆论热潮。支持的人认为对于AI的恐慌是合理的,因其训练效率太高,智能的水平每天都在膨胀;反对的人则认为这不过莫名的指控,在别有用心的势力在误导不明真相的群众。

显然,ChatGPT拥有明显算法优势的全新检索、交互服务,它的检索效率、精准度是比当前所有的传统搜索引擎都更高更有效。但如果它在回答用户过程中,所提供的内容超出了“评论”、“介绍”等合理使用限度,那就涉及到侵权可能。

03.ChatGPT是“科技利器”还是“潘多拉魔盒”?

可以看到ChatGPT确实可以像真实的人一样与用户模拟聊天,也可以根据用户的输入内容自动生成相关文本。但它越来越多功能被开发出来,造成的负面影响也随之上升。

ChatGPT究竟是“科技文明利器”还是“潘多拉魔盒”,目前看来还需要更多研究和法规来限制它的巨大能量。

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码