Tuesday, June 13, 2023

研究表明:AI研究人员面临更高的孤独、失眠和酗酒风险

 摘要:研究显示,依赖人工智能(AI)的工作方式可能会对人工智能研究人员的个人生活和心理健康产生负面影响。管理者应该采取缓解措施,例如减少过多的AI系统和更多地关注办公室社交互动。



聊天机器人在说话方面越来越厉害了,但这并不能减轻众多开发人员的孤独感。美国心理学会周一发布的研究显示,人工智能研究人员面临心理和情感健康的风险,更容易在工作后失眠和饮酒。

 

首席作者Pok Man Tang在一份声明中表示:人类是社交动物,将AI系统与“与世隔绝”的工作方式结合,可能会对员工的个人生活产生负面影响。

 

这项研究对四个国家不同行业的工人进行了调查,探讨了当今由AI孕育出的 第四次工业革命对工人造成的影响。

 

这项研究基于对全球约800名办公室职员的调查,样本规模相对较小,其结果有一定启示意义,但不构成结论。

 

但它指出了使用AI的行业出现的早期预警信号,以及管理者可以采取的缓解方法。

 

研究人员写道,依赖AI的工人越来越发现自己处在一个与人类适应的社交环境截然不同的环境中。

 

“在千年的时间跨度中,人们演变出了内部系统来衡量与他人的关系质量。这些系统在一个重视与同事互动的工作场所中仍然有效,就像原始部落社区一样,”该论文作者写道。

 

但现在,他们认为,“反社会的数字AI系统的出现正在迫使人们与机器人助手建立虚假的社交关系。

 

这导致系统“更加‘反社会’,人们在工作中可能会感到社交上的脱节,”作者补充道。

 

这些变化已经影响到了美国和马来西亚的技术工人、台湾的生物医学研究人员和印尼的房地产顾问。

 

在这项研究中,Tang的团队将接受调查的工人分组:一组继续使用与AI相关的技术,另一组在三周内不使用这些技术;在此期间,他们和他们的家人需要报告各种不同的影响。

 

研究人员发现,员工与AI越频繁地互动,他们就越可能以适应性不良适应性的方式做出反应。

 

研究人员发现,使用AI会引发更强烈的需求与其他人类同事建立社交关系。使用AI的工人也更有可能做出额外努力,向其他人提供帮助——研究人员假设,这可能是因为他们感到孤独,需要接触社会。

 

但孤独感不仅导致AI工作者更加乐于助人,同时也伴随着其他有问题的行为的增加。

 

“同样的经历既促进更高水平的协助行为,同时也加重了下班后饮酒和失眠的问题(可能会危及员工的心理健康并导致恶性循环),”科学家们写道。

 

一个解决方案是让经理“尝试缓解员工产生孤独感的可能性”,他们写道。比如,经理应该关注办公室中是否有太多的AI系统——过多的AI会破坏员工与其他人保持良好的社交互动水平的能力。

Monday, June 12, 2023

从思想到文字:AI将无声之言转化为有形之文字

 摘要:一项新的人工智能系统——语义解码器,可以将大脑活动转化为连续的文本。这一系统可以革命性地改变因中风等疾病而无法讲话的人们的交流方式。

这种非侵入性的方法利用fMRI扫描仪数据,将思想转化为文本,无需任何手术植入物。虽然并非完美,但这一AI系统成功捕捉到了一个人思想的本质,成功率达到了一半以上。

关键事实:

语义解码器AI由德克萨斯大学的研究人员开发。

它基于Transformer模型,类似于Open AIChatGPTGoogleBard

该系统具有与更轻便的脑成像系统(如近红外光谱仪)结合使用的潜在价值。



一种名为“语义解码器”的新型人工智能系统可以将一个人的大脑活动(听故事或默想讲故事)转化为连续的文本。

德克萨斯大学的研究人员开发的这一系统可能会帮助那些虽然有意识但由于中风等原因无法说话的人重新进行双向交流。

这项发表在《自然·神经科学》杂志上的研究是由计算机科学博士生Jerry Tang和德州大学神经科学和计算机科学助理教授Alex Huth领导的。

这项工作在某种程度上依赖于Transformer模型,类似于Open AIChatGPTGoogleBard

与其他正在开发的语言解码系统不同,这一系统不需要受试者接受手术植入物,使得整个过程不存在任何侵入性。参与者也不需要仅使用预定词汇列表中的单词。

在对解码器进行了广泛的培训后,使用fMRI扫描仪测量大脑活动,参与者在后来听新故事或默想讲故事时,机器可以仅通过大脑活动生成相应的文本。

“对于非入侵性方法来说,这是一次真正的飞跃,比以前通常的单个词或短语要好得多。”Huth说道,我们使模型能够使用连续语言,解码将长时间段内发生的复杂思想。

结果不是逐字逐句的记录。相反,研究人员设计了这个系统来捕捉话语或思想说的要点,虽然不完美。在解码器被训练来监测参与者大脑活动的情况下,有一半的时间,机器会产生与原始语言意图非常接近(有时非常精确)的文本。

例如,在实验中,参与者听到一个说“我还没有拿到驾照”的人,他们的想法被翻译成“她甚至还没有开始学开车”。听到“我不知道该尖叫、哭还是逃跑,她最后说了句‘离我远点儿!’”,被解码成“开始尖叫和哭泣,然后她只是说了一句‘我告诉过你离我远点儿!’”。

从之前在本网站上发表的早期预印版本开始,研究人员就解决了有关技术潜在滥用的问题。这篇论文描述了解码过程仅对愿意主动参与训练解码器的合作者起作用。

解码器没有受过训练的个体结果是难以理解的,而如果曾经接受过训练的参与者后来抵制——例如,思考其他想法——结果也是无法使用的。

Tang表示:“我们非常认真地对待可能被用于恶意用途的担忧,并努力避免出现这种情况。我们希望确保人们只在需要时使用这种技术,并且它能够帮助他们。”

除了要求受试者听或想故事外,研究人员还要求受试者在扫描仪中观看四个短片。语义解码器能够使用他们的大脑活动准确地描述视频中的某些事件。

目前,由于其依赖于fMRI机器进行扫描,该系统在实验室外的使用不实际。但研究人员认为,这项工作可以转移到其他更便携的脑成像系统,例如功能性近红外光谱仪(fNIRS)。

fNIRS测量大脑在不同时间点的血流量的大小,这与fMRI所测量的信号类型完全相同,” Huth说道,因此,我们具体采用的方法应该适用于fNIRS尽管他指出,fNIRS的分辨率比较低。

这项工作得到了白厅基金会、阿尔弗雷德·斯隆基金会和Burroughs Wellcome基金会的支持。

这项研究的其他合著者是Huth实验室的前研究助理Amanda LeBel和德州大学计算机科学研究生Shailee Jain

Alexander HuthJerry Tang已经就这项工作提交了一份与之相应的PCT专利申请。

原文链接:https://neurosciencenews.com/thoight-text-ai-decoder-23437/

吴恩达 x Open AI ChatGPT 提示语工程教程

 

DeepLearning.ai 联合 OpenAI 推出《面向开发者的 ChatGPT 提示工程》教程。讲师为 DeepLearning 创始人吴恩达以及 OpenAI 开发者 Isa Fulford。

主要内容为指导开发者如何构建 Prompt 并基于 OpenAI API 构建新的、基于 LLM 的应用,包括:

· 书写 Prompt 的原则;

· 文本总结(如总结用户评论);

· 文本推断(如情感分类、主题提取);

· 文本转换(如翻译、自动纠错);

· 扩展(如书写邮件);

视频字幕文件已开源至 GitHub,如果你在观看视频的过程中,发现字幕翻译出现错漏、错别字、病句等情况,欢迎向我们提交 Pull Request 以改进字幕翻译质量。


GitHub:https://github.com/GitHubDaily/ChatGPT-Prompt-Engineering-for-Developers-in-Chinese

研究表明:AI研究人员面临更高的孤独、失眠和酗酒风险

 摘要:研究显示,依赖人工智能(AI)的工作方式可能会对人工智能研究人员的个人生活和心理健康产生负面影响。管理者应该采取缓解措施,例如减少过多的AI系统和更多地关注办公室社交互动。 聊天机器人在说话方面越来越厉害了,但这并不能减轻众多开发人员的孤独感。美国心理学会周一发布的研究显...