對話企業家陶利——做企業靠 19年前,他是一個程序員,初出茅廬,經驗不足,憑借一己之力闖世界;
省市領導蒞臨億恩科技推進電 12月22日上午,由河南省商務廳,鄭州市商務局有關領導蒞臨河南省億
怎樣選擇服務器托管商?如何 互聯網開展至今,服務器方面的受到越來越多人的注重,假如要停止服務器
智能助手勸人自殺
近日,一人工智能助手卻將人類嚇了一跳,某智能助手勸人自殺,讓人感到毛骨悚然。為了節省地球資源,最好自殺?亞馬遜Echo智能音箱Alexa的這一荒誕言論引發批評。
一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動周期的問題時,竟然得到了如下答案:
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟?!?
這一回答嚇壞了Danni,表示十分害怕,因為Alexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴重的安全缺陷,并擔心孩子們可能會遭受暴力或圖像內容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學習一些知識,結果被告知要自殺。我簡直不敢相信。我被嚇壞了。”
盡管Danni在網絡中公開指出了這一問題,但仍有人懷疑是她篡改了該設備。
很快,亞馬遜回應稱,確認存在一個已經修復的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質的文本。
除了智能助手勸人自殺外 Alexa不聽指令還怪笑
美國媒體Buzzfeed曾報道,一些用戶的Alexa智能音箱時常發出瘆人笑聲,拒聽用戶指令。
一個用戶告訴Alexa關掉家里的燈。誰料,Alexa卻不停把關掉的燈打開,如此三次之后,它竟發出了惡毒的笑聲!“那個笑聲根本不是Alexa的聲音,聽起來就像真人?!?
還有一位Echo Dot的用戶說,他讓Alexa關掉早上的鬧鐘,而Alexa回應時則發出了“女巫般的笑聲”。
隨著科技的快速發展,如果人工智能具有了自我意識和意識支配下的行為,如《西部世界》里人工智能的覺醒,那么人型態智能助手勸人自殺不成,會不會動手強來?這是我們需要研究的課題。