Slack受到對暗中進行的AI培訓政策的抨擊

在有關大型科技公司如何從個人和企業中挪用數據來培訓AI服務的持續問題之後,一場風暴正在湧現,Slack用戶對Salesforce擁有的聊天平台如何推進其AI願景感到不滿。

該公司像許多其他公司一樣,正在利用其用戶數據來培訓一些新的AI服務。但事實證明,如果您不想讓Slack使用您的數據,則必須發送電子郵件給該公司以選擇退出。

而這種參與的條款藏在一份似乎已經過時的、令人困惑的隱私政策中,沒有人在意。這也是Slack所面臨的情況,直到一個憤怒的人在一個廣受開發者歡迎的社區網站上發帖,然後那篇帖子迅速傳播……這就是發生在這裡的情況。

昨晚,一條關於Slack如何培訓其AI服務的註釋在Hacker News上提出問題,並通過一個直接連結到其隱私原則的方式,無需額外評論。該帖子引發了更長時間的談話,並對當前Slack用戶似乎是新聞的事實進行了討論 — Slack默認將用戶納入其AI培訓中,而您需要發送電子郵件到特定地址進行選擇退出。

在人們對Slack在哪些地方應用其AI隱私原則感到困惑,以及人們對於需要發送電子郵件進行退出的想法感到驚訝和惱怒 — 返回給客戶的是“您控制您的數據”的公司 — Slack表現不佳。

震驚可能是新的,但這些條款不是。根據互聯網檔案館上的頁面,這些條款至少從2023年9月就開始適用了。(我們已經要求該公司進行確認。)

根據隱私政策,Slack專門使用客戶數據來培訓“全球模型”,這些模型用於支持頻道和表情符號推薦以及搜索結果。 Slack告訴我們,其對數據的使用具有特定限制。

“Slack具有平台級機器學習模型,用於頻道和表情符號推薦以及搜索結果。我們不會以這樣的方式建立或培訓這些模型,使其能夠學習、記憶或重現部分客戶數據,”該公司發言人對TechCrunch表示。然而,該政策似乎未涉及公司培訓AI模型的整體範圍和公司更廣泛的培訓計劃。

在其條款中,Slack表示,如果客戶選擇退出數據培訓,他們仍將受益於公司的“全球培訓的AI/ML模型”。但再次,在這種情況下,並不清楚公司首先為什麼使用客戶數據來支持表情符號推薦等功能。

該公司還表示,它不使用客戶數據來培訓Slack AI。

“Slack AI 是一個獨立購買的附加組件,使用LLM(大型語言模型),但不會使用客戶數據來培訓這些LLM。 Slack AI 使用直接託管在Slack AWS基礎設施內的LLM,因此客戶數據仍留在內部並且不與任何LLM提供者共享。這確保客戶數據保留在該組織控制下,僅供該組織使用,”一位發言人表示。

一些混淆可能很快就會解決。對工程師兼作家Gergely Orosz在Threads上的一個批評性看法的回應中,Slack工程師Aaron Maurer承認公司需要更新該頁面以反映“這些隱私原則如何與Slack AI配合”。

Maurer補充說,這些條款是在該公司還沒有Slack AI時編寫的,并且這些規則反映了公司在搜索和推薦方面的工作。考慮到人們對Slack當前如何使用其AI感到困惑,未來將檢查這些條款是值得的。

Slack所面臨的問題鮮明地提醒我們,在快速發展的AI開發世界中,用戶隱私不應該成為一個事後想法,公司的服務條款應清楚地說明數據如何被使用,或者是否被使用。