歐洲將成立ChatGPT工作小組
聯合歐洲國家隱私監管機構的機構週四表示,已成立一個專門負責 ChatGPT 的工作小組
ChatGPT 將法學教授 Jonathan Turley 列入騷擾他人的學者名單,但事實是他完全無辜。
故事發生在加州大學法學教授尤金·沃洛克(Eugene Volokh)向 ChatGPT 詢問美國法學院講師性騷擾的情況時,請他舉出 5 個例子並引用專家的相關文章。
因此,ChatGPT 很快就提供了 5 條回复,其中包含完整的詳細資訊和資訊引用。然而,其中三個答案是不正確的,特利的名字出現在名單上。該 AI 引用了 2018 年 3 月《華盛頓郵報》的一篇文章,內容涉及特利教授在阿拉斯加之旅期間發表性評論並試圖觸摸一名學生。
但事實上,這篇文章並不存在,特利教授沒有去過阿拉斯加,也從未被指控騷擾學生。
《華盛頓郵報》使用 Volokh 自己的問題測試了 ChatGPT 和 Bing。結果,免費版 ChatGPT 拒絕提供回饋,因為它「違反了禁止傳播攻擊性或有害資訊的 AI 內容政策」。使用 GPT-4 模型的 Bing 系統仍然給出有關 Turley 教授的虛假資訊。甚至還引用了Turley自己前一天在《今日美國》上關於被這個AI誣陷的經歷的文章。這顯示人工智慧之間存在虛假訊息的傳播。
Turley教授不知道該聯絡誰,也不知道如何更正ChatGPT提供的資訊。他說這讓他感到害怕,因為這樣的指控可能會造成很大的傷害。
發生在特利身上的是人類在使用人工智慧時遇到的典型陷阱。他們可以給很多假訊息,甚至編造自己的數據。
最近,ChatGPT、Bing和Bard已經開始在網路上廣泛集成,對於這些AI我們還沒有具體的控制措施。這讓許多人擔心傳播假新聞和不準確資訊的風險,因為目前尚不清楚當人工智慧製造或傳播虛假資訊時誰將負責。
本週早些時候,澳洲維多利亞州赫本郡市長 Brian Hood 先生成為第一個威脅起訴 OpenAI 誹謗的人,因為 ChatGPT 稱他因賄賂定罪而入獄。他要求 OpenAI 糾正 ChatGPT 的虛假陳述。
聯合歐洲國家隱私監管機構的機構週四表示,已成立一個專門負責 ChatGPT 的工作小組
丹麥和美國科學家合作開發了一種名為 life2vec 的人工智慧系統,能夠高精度預測人類死亡時間。
一種名為 Audioflow 的人工智慧演算法可以聆聽排尿的聲音,從而有效、成功地識別患者的異常尿流和相應的健康問題。
日本的老化和人口減少導致該國缺乏大量年輕工人,特別是在服務業。
名為 u/LegalBeagle1966 的 Reddit 用戶是眾多迷戀 Claudia 的用戶之一,Claudia 是一個電影明星般的女孩,經常在這個平台上分享誘人的自拍照,甚至是裸體的。
微軟剛剛宣布,又有 12 家科技公司將參與其 AI for Good 計畫。
使用者@mortecouille92利用圖形設計工具Midjourney的力量,創建了著名龍珠角色的獨特逼真版本,如悟空、貝吉塔、布瑪和老龜。
只需添加一些條件或設定一些場景,ChatGPT 就可以為您的查詢提供更相關的答案。讓我們看看可以提高 ChatGPT 響應品質的一些方法。
Midjourney是一個人工智慧系統,最近在網路社群和藝術家界引起了“熱潮”,因為它的畫作極其精美,不遜色於真正的藝術家。
在中國宣布疫情爆發幾天后,透過獲取全球機票銷售數據,BlueDot 的人工智慧系統繼續準確預測武漢冠狀病毒向曼谷、首爾、台北和東京的傳播。