技術(shù)是一把雙刃劍,AI 也不例外,至少現(xiàn)在是這樣。ChatGPT、Midjourney 等 AI 工具誕生后,有人喜,有人憂。
一方面,一些傳統(tǒng)公司將這些 AI 工具應(yīng)用到公司的實際業(yè)務(wù)中,實現(xiàn)了降本增效;另一方面,部分人類打工人卻因被 AI 工具替代而面臨失業(yè)的危機。
(資料圖片僅供參考)
一個值得關(guān)注的新聞是,在剛剛過去的五一勞動節(jié)期間,IBM 宣布暫緩可以被 AI 替代的崗位的招聘,而且諸如此類的事件可能越來越多。
那么,隨著 AI 變得越來越強大,各種?AI 系統(tǒng)也將會被越來越多地服務(wù)于各行各業(yè),屆時,AI 是將扮演一個“資本的順從執(zhí)行者”(capital’s willing executioners),還是可以真正改善人們的生活、實現(xiàn)一個烏托邦式的未來?
近日,華裔美國科幻小說作家?Ted Chiang(姜峯楠)在《紐約客》發(fā)文,探討了“AI 是否會成為下一個麥肯錫”的問題——這家公司為?90% 的 Fortune 100 上榜公司提供服務(wù),被前雇員稱為資本公司用來逃避責任的“打手”。
核心觀點如下:
每當我們談?wù)撊斯ぶ悄埽ˋI)時,我們都會使用一些隱喻(metaphor),就像我們在面對新的和不熟悉的事物時所表現(xiàn)的那樣。
從本質(zhì)上講,隱喻是不完美的,但我們依然需要謹慎地去選擇它們,因為糟糕的隱喻會讓我們犯錯誤。例如,我們經(jīng)常將強大的 AI 比作童話故事中的精靈,用來強調(diào)讓強大的個體服從你的命令是非常困難的。
計算機科學(xué)家 Stuart Russell 則引用了有關(guān) Midas 國王的寓言故事,來說明一個 AI 做你告訴它的事情而非你想要它做的事情的危險性。(Midas 獲得了“點石成金”能力,卻一度遭遇了巨大的災(zāi)難。)
這個隱喻存在很多問題,其中之一是,它從指向的故事中得出了錯誤的結(jié)論。這一寓言的重點是,貪婪之心會毀掉你,一味地追求金錢會讓你失去真正重要的東西。如果你對這個寓言的解讀是,當你被答允可以實現(xiàn)任何一個愿望時,你應(yīng)該非常謹慎地說出這一愿望,那你就錯了。
因此,我將針對 AI 可能帶來的風險提出另一個隱喻:把 AI 類比成一家管理咨詢公司,如麥肯錫(McKinsey & Company),其與 90% 的 Fortune 100 上榜公司合作。
像麥肯錫這樣的公司會因各種原因被雇用,而 AI 系統(tǒng)也會因各種原因被使用。而且,麥肯錫和 AI 之間的相似點非常明顯。社交媒體借助 AI 算法讓用戶沉迷于其中;類似地,普渡制藥(Purdue Pharma)曾在麥肯錫的幫助下大大增加了 OxyContin 在阿片類藥物泛濫時的銷售額。就像 AI 被認為可以為管理者提供廉價的人類勞動力替代品一樣,麥肯錫和其他類似公司也讓大規(guī)模裁員的現(xiàn)象更加常見。
一名前麥肯錫雇員將這家公司描述為“資本的順從執(zhí)行者”(capital’s willing executioners):如果你想做一件事,但不想弄臟自己的手,麥肯錫可以幫助你。(幫你)逃避責任,是管理咨詢公司提供的最有價值的服務(wù)之一。
老板們想要實現(xiàn)一些目標,但不想因為采取一些必要的行動而受到指責,通過聘請咨詢顧問,他們可以反駁說,自己只是聽取了來自第三方的專業(yè)建議。放眼現(xiàn)在,AI 也成為了他們逃避責任的一種方式,他們說,自己只是做了“算法”建議的事情而已。
我們需要關(guān)心的問題是:AI 變得越來越強大,我們有沒有辦法避免它成為下一個“麥肯錫”?這一問題需要從不同的角度來思考。
如果你認為 AI 是一項被廣泛使用的技術(shù),能夠幫助公司降低成本,那問題就可以描述為:我們?nèi)绾畏乐惯@一技術(shù)被用作為“資本的順從執(zhí)行者”?
或者,如果你把 AI 想象成一個半自主的軟件程序,解決人類要求它解決的問題,那問題就變成了:如何防止這一軟件以讓人們生活變得更糟的方式來幫助公司?假設(shè)你已經(jīng)建立了一個完全服從于人類的半自主人工智能,但它依然很容易像麥肯錫那樣給社會帶來危害。
你不能簡單地說,你將建立一個只解決你提出的問題且可以創(chuàng)造積極社會影響的 AI。這就相當于說,你可以通過創(chuàng)辦一家只提供這種解決方案的咨詢公司且能規(guī)避麥肯錫帶來的威脅。
但現(xiàn)實情況是,F(xiàn)ortune 100 公司依然會雇用麥肯錫,因為麥肯錫的解決方案能為股東們提供更多利益。建立奉行 “股東利益高于一切” 的 AI 可能永遠都是受歡迎的,大多數(shù)公司也更愿意使用這種 AI,而不是一個受你的原則約束的 AI。除了成為 “資本的順從執(zhí)行者”,AI 還能做些什么?
當前,AI 大多是一種試圖分析人類行為并找到取代人類方法的努力。恰巧,這也正是一些管理層希望解決的問題。因此,AI 以犧牲人類勞動者的利益為代價被用來幫助資本。
實際上,真的沒有什么比勞動咨詢公司更能促進勞動者利益的了。AI 能否扮演這一角色呢?又是否可以做一些有利于勞動者而非管理層的事情?
有人可能會說,反對管理層并不是 AI 要做的工作。這也許是正確的,但 AI 的能力也不是用來強化資本。不幸的是,目前的情況正是如此。如果我們不能想辦法讓 AI 減少財富集中,就很難說 AI 是一種中立的技術(shù),更無法說它是一種有益的技術(shù)了。
很多人認為,AI 會造成更多的失業(yè),并提出了將全民基本收入(UBI)作為解決這個問題的方法。
放在其他情景下,我很喜歡 UBI 這一想法。但是,對于 AI 從業(yè)者建議用 UBI 作為解決失業(yè)問題的方法,我表示懷疑。如果我們已經(jīng)有了 UBI ,情況會有所不同,但事實上我們并沒有,所以這似乎是他們把責任推給政府的一種方式。
實際上,他們正在加劇資本集中造成的問題,并期望當這些問題變得足夠糟糕時,政府將別無選擇,只能介入。作為讓世界變得更美好的戰(zhàn)略,這似乎值得懷疑。
有一種哲學(xué)思想是,讓事情變得更好的唯一方法是讓事情變得更糟。我認為,這是帶來一個更好的世界的方法之一,但是,如果這是 AI 行業(yè)正在采用的方法,每個人都應(yīng)該清楚他們正在努力實現(xiàn)什么。
通過建立 AI 系統(tǒng)來完成之前由人類完成的工作,AI 從業(yè)者正在將財富的集中度提高到極端水平,以至于避免社會崩潰的唯一方法就是政府介入。
事實上,你不知道這件事需要多長時間才能有好轉(zhuǎn);你能確定的是,人們會在中短期內(nèi)遭受巨大的痛苦和折磨。
我不太相信 AI 會因為可能制定自己的目標并阻止我們關(guān)閉它而對人類產(chǎn)生威脅的說法。然而,我確實認為 AI 是危險的,因為它增加了一些人的權(quán)力。
末日情景并不是像一個著名的思想實驗所想象的那樣,一個 AI 將整個地球“變成回形針”,而是由 AI 強化的企業(yè)在追求股東利益的過程中對社會造成危害。
批評新技術(shù)的人有時被稱為盧德派(Luddites),他們抗議的主要內(nèi)容是,在食品價格增加、工廠主利潤增加的同時,他們的工資卻在下降。他們還抗議不安全的工作條件,以及銷售有損整個紡織業(yè)信譽的劣質(zhì)商品。
盧德派并非不加選擇地破壞機器,如果他們從工廠主那里獲得了很高的工資,就不會去破壞它。他們也不反對新技術(shù),他們想要的是經(jīng)濟上的公正。他們破壞機器是為了引起工廠主的注意。如今,“盧德派”一詞被用作侮辱他人、指責其不理性和無知,他們被惡意抹黑了。
每當看到有人指責別人是盧德派時,我們需要認真思考:被指責的人真的反對技術(shù)嗎?指責他人的人真的認為新技術(shù)可以改善人們的生活嗎?還是說,他們只是試圖增加私人資本的積累呢?
今天,我們發(fā)現(xiàn)自己處于這樣一種情況中:技術(shù)與資本/金錢混淆在一起,而資本/金錢又與進步的概念混淆在一起。如果你試圖批評他們,就會被指責反對技術(shù)和進步。但是,如果進步不包括改善工人的生活,那它的意義到底是什么呢?如果節(jié)省下來的錢只是流向股東的銀行賬戶,那提高效率又有什么意義呢?
我們都應(yīng)該努力成為盧德派,因為我們應(yīng)該更關(guān)心經(jīng)濟上的公正,而不是私人資本的增加。我們希望能夠批評技術(shù)的有害使用方式,如有益于股東而有害于工人的方式,而不是被描述為技術(shù)的反對者。
一個理想化的未來是,在一百年后,沒有人會被迫從事他們不喜歡的工作,每個人都可以用自己認為的最有成就感的方式度過一生。顯然,我們還不知道如何從當前走向那個理想化的未來。
然而,在未來幾十年內(nèi),可能會出現(xiàn)兩種情況:一種是,管理和資本力量比現(xiàn)在更加強大;另一種是,勞動力比現(xiàn)在更加強大。哪一種情況更有可能讓我們更接近那個理想化的未來?而就當前的情況而言,AI 在幫助我們朝著哪個方向前進?
當然,有一種說法是,從長遠來看,新技術(shù)提高了我們的生活水平,彌補了它在短期內(nèi)造成失業(yè)的負面影響。這一說法在工業(yè)革命后的大部分時期內(nèi)都很有說服力,但在過去的半個世紀中,就不太令人信服了
在美國,人均 GDP 自 1980 年以來幾乎翻了一倍,而家庭收入的中位數(shù)卻沒有跟上這一增長趨勢。而這一時期正好發(fā)生了信息技術(shù)革命。這意味著個人電腦和互聯(lián)網(wǎng)創(chuàng)造的經(jīng)濟價值大多流向了最頂層的富人群體,而并非提高美國公民的整體生活水平。
當然,如今有數(shù)以億計的人都能夠使用互聯(lián)網(wǎng),而且這一技術(shù)確實令人驚嘆。但房地產(chǎn)價格、大學(xué)學(xué)費和醫(yī)療保健費用的增長速度卻超過了通貨膨脹。在 1980 年,一個家庭靠一份收入來養(yǎng)家糊口是很常見的,而現(xiàn)在已經(jīng)很少見了。那么,在過去的四十年里,我們到底取得了多大的進步?
當然,網(wǎng)上購物快捷方便,在家中觀看流媒體電影也很酷,但我認為很多人愿意為了擁有自己的房子、送孩子上大學(xué)而不欠下終身債務(wù),去醫(yī)院看病而不陷入破產(chǎn)危機而放棄這些便利。
收入中位數(shù)沒有跟上人均 GDP 的增長速度,不是技術(shù)的錯,而是 Milton Friedman 等人的錯,以及像前通用電氣首席執(zhí)行官 Jack Welch 等人和麥肯錫這樣的咨詢公司的管理政策。
我并非把財富不平等的加劇歸咎于個人電腦的產(chǎn)生,我只是說,“更好的技術(shù)必然會提高人們的生活水平” 的說法已不再令人信服。
在討論 AI 可能帶來的好處時,個人電腦沒有提高收入中位數(shù)這一事實尤為重要。人們經(jīng)常建議,研究人員應(yīng)該專注于 AI 如何提高個體工人的生產(chǎn)力,而不是取代他們;這被稱為增強路徑,而不是自動化路徑。這是一個值得追求的目標,但僅憑此目標并不能改善人們的經(jīng)濟狀況。
一個在個人電腦上運行的生產(chǎn)力軟件是增強而非自動化的典型例子是:文字處理程序取代了打字機而不是打字員,電子表格程序取代了紙質(zhì)電子表格而不是會計師。但是,個人電腦所帶來的個人生產(chǎn)力的提高并沒有與生活水平的提高相匹配。
技術(shù)能夠提高生活水平的唯一途徑是,有適當?shù)慕?jīng)濟政策來分配技術(shù)的好處。在過去的四十年中,我們沒有這些政策,除非我們能夠得到這些政策,否則沒有理由認為即將到來的 AI 進步將提高收入中位數(shù),即使我們能夠為它設(shè)計出增強個體工人能力的方法。AI 肯定會降低勞動力成本,增加企業(yè)的利潤,但這與改善我們的生活水平完全不同。
假設(shè)一個烏托邦式的未來就在眼前,而且我們已經(jīng)開發(fā)出了在那個未來使用的技術(shù)。但是,某項技術(shù)在烏托邦中有用并不意味著它現(xiàn)在就有用。在一個能將有毒廢物轉(zhuǎn)化為食物的烏托邦中,產(chǎn)生有毒廢物將不再是一個環(huán)境問題,但在當下,沒有人可以說產(chǎn)生有毒廢物是無害的。
一些人可能會說,產(chǎn)生更多的有毒廢物將加速廢物轉(zhuǎn)化為食物的發(fā)明的誕生,但這一觀點有多大的說服力呢?我們在評估技術(shù)的環(huán)境影響時,要考慮當前可用的減緩措施,而不是未來的減緩措施。
同樣地,我們不能通過想象 AI 在全民基本收入普及的世界中會有多大幫助來評估它;我們必須根據(jù)資本與勞動之間現(xiàn)存的不平衡來評估它,在這種情況下,AI 是一種威脅,因為它成為了 “資本的順從執(zhí)行者”。
一位前麥肯錫合伙人為該公司的行動辯護說:“我們不參與政策制定,我們只負責執(zhí)行?!钡@是一個顯得十分蒼白的借口;當咨詢公司或新技術(shù)提供執(zhí)行方法時,更有可能做出有害的政策決定。
當前正在開發(fā)的一些 AI 系統(tǒng)會讓公司有更多的裁員,有沒有可能開發(fā)一種使裁員變得更困難的 AI 呢?要么增加政府監(jiān)管,要么賦予工會或工人更多權(quán)力。
1976 年,英國伯明翰的 Lucas Aerospace 公司的工人面臨因國防開支削減而被解雇的困境。作為回應(yīng),車間工會代表們制定了一份被稱為“Lucas Plan”的文件,描述了透析機、風力渦輪機和混合動力汽車發(fā)動機等 150 種“對社會有用的產(chǎn)品”,這些產(chǎn)品可以利用那時的技能和設(shè)備由工人來生產(chǎn)。盡管 Lucas Aerospace 的管理層最終拒絕了這個提議,但它仍然是一個工人試圖將資本主義引向更人性化方向的著名案例。當然,類似的事情在現(xiàn)代計算技術(shù)中也一定是可能的。
作為個人,你能做些什么?如果你在 Frito-Lay 公司擔任食品科學(xué)家,而你的工作任務(wù)是發(fā)明新口味的土豆片,我不會說你有道德義務(wù)辭職,因為你在推動消費主義。你在運用作為食品科學(xué)家的專業(yè)知識為顧客提供愉悅的體驗,這是一種完全合理的謀生方式。
但是,許多從事 AI 工作的人認為,AI 比發(fā)明新薯片口味更重要。他們稱其為一項能夠改變世界的技術(shù)。如果是這樣,那么他們有責任找到讓 AI 在不先讓世界變得更糟的情況下改善世界的方法。除了將我們推向社會崩潰的邊緣,AI 可以改善我們世界的不公平現(xiàn)象嗎?如果 AI 像其支持者聲稱的那樣是一個強大的工具,除了加劇資本聚集之外,他們應(yīng)該能夠找到其他用途。
如果說我們應(yīng)該從有關(guān)精靈的童話故事中吸取什么教訓(xùn)的話,那就是不努力就想得到某些東西的愿望才是真正的問題。
想想《魔法師的學(xué)徒》的故事,學(xué)徒施法讓掃帚運水,但無法讓它們停下來。這個故事的教訓(xùn)并不是說魔法是無法控制的:在故事的結(jié)尾,巫師回來后立即擺平了學(xué)徒所造成的混亂。真正的教訓(xùn)是,你不能逃避做艱苦的工作。學(xué)徒想逃避他的雜務(wù),而尋找捷徑就是讓他陷入困境的原因。
將 AI 視為一個“神奇的問題解決者”的傾向表明,人們想要逃避建設(shè)一個更好的世界所需的艱苦工作。這項艱苦的工作將涉及解決財富不平等和馴服資本主義等問題。
對于技術(shù)專家來說,最艱難的工作——他們最想避免的任務(wù)——將是質(zhì)疑更多的技術(shù)總是更好的假設(shè),以及他們可以繼續(xù)照常工作,一切都會自行解決的信念。
沒有人喜歡思考自己在世界不公正中的責任,但對于那些正在構(gòu)建顛覆性技術(shù)的人們來說,進行這種關(guān)鍵的自我審視是必要的。他們是否愿意堅定地審視自己在系統(tǒng)中的角色,將決定 AI 是催生一個更好的世界,還是一個更壞的世界。?
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) 93dn.com 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2023 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com