微軟之所以全力下注AI技術,原因相當簡單:它堅信只要成為AI領導者就可以再次成為科技老大哥。
在搜索和瀏覽器領域,微軟難望谷歌項背,有了AI開路,微軟相信可以縮小差距,甚至再次成為競爭主導者。不久前微軟CFO Amy Hood告訴分析師,只要在搜索廣告市場拿下一個百分點的市場,價值就是20億美元。2023年一季度,谷歌占有搜索市場85%,必應只有9%,如果微軟能夠步步接近谷歌,上升空間極大,能搶占的利潤更多。不只是搜索,AI還可以為云計算、生產工具等產品賦能。
AI擔憂四起
微軟野心勃勃,想實現(xiàn)目標面臨諸多挑戰(zhàn),不限于競爭對手。各國政府、倫理學家、許多AI研究人員相信,快速進化的AI技術如果處理不當,可能會給社會造成重大威脅,甚至可能危及人類未來。Geoffrey Hinton是AI領域的頂級專家,他在谷歌工作了將近10年,不久前離開,他認為谷歌使用AI技術的方式有欠妥當。Hinton說:“我個人認為,在谷歌正確理解自己能否控制AI之前不應該再擴大規(guī)模?!庇蓄愃茡鷳n的不只Hinton。
今年3月,1000多名AI研究人員、科技領軍人物及其它各界人士發(fā)表公開信,大聲疾呼AI競賽已經失控,各企業(yè)都想著開發(fā)部署更強大的數(shù)字思維,但沒有人能理解、預測它如何發(fā)展,也不知道能不能有效控制AI。
專家們要求暫停開發(fā)比GPT-4更強大的AI工具。微軟已經向GPT-4開發(fā)者OpenAI投資130億美元。國際先進人工智能協(xié)會(Association for the Advancement of Artificial Intelligence, AAAI)成立已經約40年。4月初,AAAI一些代表發(fā)表公開信,談及AI威脅,微軟首席科學官Eric Horvitz也在信上簽了名。
微軟反應冷淡
對于上述警告微軟持怎樣的態(tài)度呢?它要么聳聳肩,要么豎起中指。微軟是不是不知道威脅的存在?
非也!為了防范風險,微軟在內部設立幾個安全團隊,包括“Office of Responsible AI”,但這些團隊似乎只是用來裝點門面。微軟內部AI組織是實權派,倫理和社會團隊嵌入AI組織,權力并不大。
2020年之前倫理社會團隊有30名工程師、設計師和哲學家,他們與AI開發(fā)團隊合作,確保AI符合倫理。倫理社會團隊翻譯“Office of Responsible AI”發(fā)布的模糊聲明,確保推出的產品符合聲明要求。倫理社會團隊的一位成員解釋稱:“人們會查看負責任AI辦公室發(fā)布的準則,然后說:我不知道如何應用這些準則。我們的工作就是告訴他們如何應用,在沒有規(guī)則的地方創(chuàng)造規(guī)則?!?/p>
但在隨后的日子里,微軟加速AI研發(fā),砍掉了倫理社會團隊。2022年4月,就在微軟發(fā)布必應AI聊天機器人前幾個月,倫理社會團隊大裁員,最終只有7人留下。微軟毫不掩飾自己的意圖,它的目標是快速推出AI聊天機器人,它不希望有任何人擋道。
微軟AI企業(yè)副總裁John Montgomery在裁員會議上解釋說:“CTO和CEO給我施加的壓力非常大,讓我們積極引入OpenAI最新的模型以及之后將推出的模型,將它們快速交給客戶。”他認為倫理社會團隊擋了道!一位團隊成員認為,從商業(yè)角度看裁員的做法可以理解,但是團隊十分擔憂社會影響。
Montgomery直接回應稱:“我能夠重新考慮嗎?我不能。很不幸,壓力還是一樣的。我看到的你看不到,也許這是好事。既然想做出香腸,有很多東西就要被碾碎?!彪m然裁員,微軟似乎覺得仍然不夠,于是乎3月6日整個團隊都被砍了!
與此同時,微軟內部的AI研究人員卻對AI技術有點擔憂,外界也不缺擔憂之人。5月份白宮邀請微軟、谷歌、OpenAI、Anthropic(AI創(chuàng)業(yè)公司)的相關高管開會,主持會議的是副總統(tǒng)Kamala Harris(拜登也曾短暫出現(xiàn)在會場),他警告說:“你們所做的有很大潛力,也有無窮風險。
對于確保產品安全,私營企業(yè)負有倫理、道德和法律責任?!泵绹f是這樣說,最后如何做誰也管不了,畢竟連微軟也管不住。對于各種擔憂,微軟假裝很在乎。就在開會當天,微軟向想用必應聊天機器人的用戶開了綠燈,撤掉安全護欄,向開發(fā)者開放。為什么頂風作案?微軟釋放的意思很明確:盡管存在諸多風險,我們還是要加速前進。