国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一場(chǎng)自動(dòng)駕駛悲劇反映出日益凸顯的技術(shù)危機(jī)

jmiy_worldofai ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-06 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一場(chǎng)自動(dòng)駕駛悲劇反映出日益凸顯的技術(shù)危機(jī),堆積如山的代碼創(chuàng)造了「一個(gè)無(wú)人完全理解的宇宙」,我們可能會(huì)把它們稱(chēng)為「弗蘭肯算法(frankenalgos)」,而理解并應(yīng)對(duì)它們,基本上需要一門(mén)新的科學(xué)。

2018 年 3 月 28 日,是讓人們揪心的一天。

那天晚上,在亞利桑那州坦佩市,一輪新月升到一條四車(chē)道的上空,昏暗的路面并未因此而多幾分光亮。

這時(shí),一輛經(jīng)過(guò)特別改造的 Uber Volvo XC90 正在檢測(cè)道路前方的某個(gè)物體。

作為現(xiàn)代淘金熱的趕潮兒,這輛 SUV 已經(jīng)在完全無(wú)人駕駛模式下行駛了 19 分鐘,期間并未得到后座安全員的任何指導(dǎo)。

它配備了一組雷達(dá)和激光雷達(dá)傳感器,通過(guò)算法來(lái)計(jì)算周?chē)镎系木嚯x。

此時(shí),主車(chē)速度穩(wěn)定在 43 英里/小時(shí),經(jīng)機(jī)載算法判斷,如果前方物體保持不動(dòng),那么主車(chē)距離它有 6 秒之遙。

不過(guò),路面上的物體很少會(huì)靜止不動(dòng)。因此,通過(guò)檢索可識(shí)別的機(jī)械 & 生物實(shí)體庫(kù),算法會(huì)從中爬取出更多數(shù)據(jù),以此來(lái)推斷該物體的可能行為。

起初,該計(jì)算機(jī)一無(wú)所獲;

幾秒鐘后,它發(fā)現(xiàn)自己剛才是在處理另一輛車(chē),并期盼著那輛車(chē)能夠開(kāi)走,這樣,就可以不對(duì)其采取其它特別行動(dòng)。

直到最后一秒,它才得到了一個(gè)清晰的身份識(shí)別——

一個(gè)騎自行車(chē)的女人,車(chē)把上混亂地掛著購(gòu)物袋。她想當(dāng)然地以為,這輛沃爾沃會(huì)像任何普通汽車(chē)那樣繞開(kāi)她行駛。

由于受到不得擅自采取回避行為的限制,計(jì)算機(jī)突然把控制權(quán)交還給了它的人類(lèi)主人,但是,主人并沒(méi)有注意。

49 歲的伊萊恩·赫茲伯格(Elaine Herzberg)被撞死了。

這個(gè)事件引起了一些科技界成員的反思,給他們提出了 2 個(gè)令人不快的問(wèn)題:算法的悲劇不可避免嗎?我們將(應(yīng)該)準(zhǔn)備如何應(yīng)對(duì)這種事件?

「在某些方面,我們失去了主體性。當(dāng)程序進(jìn)入代碼,代碼進(jìn)入算法,然后算法開(kāi)始創(chuàng)建新算法,一切離人類(lèi)主體越來(lái)越遠(yuǎn)。

軟件被釋放到一個(gè)沒(méi)有人能完全理解的代碼世界?!?/p>

Ellen Ullman 說(shuō)。自 20 世紀(jì) 70 年代以來(lái),她 一直是位杰出的專(zhuān)業(yè)程序員,也是少數(shù)幾個(gè)能夠?qū)幋a過(guò)程進(jìn)行深刻描述的人之一。

當(dāng)算法開(kāi)始創(chuàng)建新算法時(shí),一切離人類(lèi)主體越來(lái)越遠(yuǎn),Ellen Ullman 說(shuō)。

她對(duì)軟件世界了如指掌。

「人們說(shuō),『那么,F(xiàn)acebook 的運(yùn)作方式呢?——他們創(chuàng)建并使用算法,而且他們可以改變算法。』

但事實(shí)并不是這樣。他們先設(shè)定算法,然后算法會(huì)進(jìn)行自主學(xué)習(xí)、變化和運(yùn)行。

Facebook 會(huì)定期干預(yù)算法的運(yùn)作,但并不會(huì)真的對(duì)其進(jìn)行控制。

而對(duì)于一些特定程序,算法不是單獨(dú)運(yùn)行,還需要各類(lèi)庫(kù)、深度操作系統(tǒng)等……?!?/p>

算法是什么?

事實(shí)上,自從互聯(lián)網(wǎng)——尤其是搜索引擎——在上世紀(jì) 90 年代中期興起以來(lái),算法的使用已經(jīng)發(fā)生了變化。

從根本上說(shuō),算法是一件小而簡(jiǎn)單的事情:一條用來(lái)自動(dòng)處理數(shù)據(jù)的規(guī)則。

如果發(fā)生了 a,那么執(zhí)行 b;否則執(zhí)行 c。這是經(jīng)典計(jì)算的「if/then/else」邏輯。

如果一個(gè)用戶(hù)聲稱(chēng)是自己已年滿(mǎn) 18 周歲,就允許他進(jìn)入網(wǎng)站;否則就輸出「對(duì)不起,年滿(mǎn) 18 歲才可進(jìn)入」。

就其核心而言,計(jì)算機(jī)程序就是很多很多的這類(lèi)算法。一份數(shù)據(jù)處理說(shuō)明書(shū)。

從微觀上看,沒(méi)有比這更簡(jiǎn)單的事了。如果計(jì)算機(jī)表現(xiàn)出了任何魔力,不是因?yàn)樗斆?,而是因?yàn)榭臁?/p>

最近幾年,「算法」一詞被賦予了一個(gè)愈加可怕且模棱兩可的含義,它可以指:

(1)任何大型、復(fù)雜的決策軟件系統(tǒng);

(2)能夠根據(jù)給定的一組標(biāo)準(zhǔn)(或「規(guī)則」),來(lái)獲取一系列數(shù)據(jù)輸入并快速對(duì)其進(jìn)行評(píng)估的任何方法。

這徹底改變了醫(yī)學(xué)、科學(xué)、交通、通信等領(lǐng)域,使得多年來(lái)占據(jù)主流的計(jì)算機(jī)烏托邦觀念更加深入人心。算法使我們的生活在各個(gè)層面上都變得更好了。

直到 2016 年,我們才開(kāi)始對(duì)這種新的算法現(xiàn)實(shí)進(jìn)行更加細(xì)致入微的考量。

我們傾向于用近乎圣經(jīng)般的術(shù)語(yǔ)來(lái)討論算法,視算法為擁有自己生命的獨(dú)立實(shí)體,之所以如此,是因?yàn)槲覀儽还膭?lì)以這種方式去思考問(wèn)題。

舉個(gè)例子。

Facebook 和 Google 這樣的公司已經(jīng)出售并保護(hù)了自己的算法,這是建立在承認(rèn)算法之客觀性的基礎(chǔ)上的,這種客觀性要求算法能夠利用數(shù)學(xué)式的客觀且不帶模糊情緒,對(duì)一組條件進(jìn)行衡量。

這種算法決策能夠擴(kuò)展到幾乎所有需要決策的事務(wù)中,比如貸款/保釋/福利/大學(xué)名額/工作面試等,也就不足為奇了。

現(xiàn)在,我們不會(huì)再對(duì)這類(lèi)算法賣(mài)點(diǎn)逆來(lái)順受了。

曾經(jīng)的數(shù)學(xué)神童凱茜·奧尼爾(Cathy O'Neil)——已經(jīng)離開(kāi)華爾街去教書(shū),她管理著一個(gè)關(guān)于數(shù)學(xué)基礎(chǔ)教育的博客 mathbabe——在她 2016 年出版的《數(shù)學(xué)殺傷武器》(Weapons of Math Destruction)一書(shū)中,毫無(wú)疑問(wèn)地證明了,算法遠(yuǎn)遠(yuǎn)不會(huì)消除人類(lèi)偏見(jiàn),相反,它將放大并鞏固這些偏見(jiàn)。

畢竟,軟件是由一些非常富裕的白人和亞洲人寫(xiě)的。而這不可避免地會(huì)反映出他們的意識(shí)形態(tài)。

偏見(jiàn)充滿(mǎn)惡意但無(wú)意制造傷害,但我們無(wú)法輕易地像要求人類(lèi)那樣去要求一個(gè)算法監(jiān)管者去解釋它的決定。

奧尼爾呼吁對(duì)任何直接影響公眾的系統(tǒng)進(jìn)行「算法審計(jì)」,這是一個(gè)明智的想法。如此一來(lái),技術(shù)產(chǎn)業(yè)定會(huì)極力反對(duì),因?yàn)樗麄兙褪琴u(mài)軟件的;產(chǎn)品透明度是他們最后才會(huì)交出來(lái)的東西。

曾經(jīng)是數(shù)學(xué)神童的凱西·奧尼爾(Cathy O'Neil)已經(jīng)證明,算法可以放大人類(lèi)偏見(jiàn)。

好消息是,這場(chǎng)戰(zhàn)斗正在進(jìn)行中;壞消息是,與接下來(lái)發(fā)生的事情相比,它已經(jīng)顯得陳舊起來(lái)。

大家都在關(guān)注人工智能的遠(yuǎn)景和威脅,以至于幾乎沒(méi)有人注意到:我們正進(jìn)入算法革命的一個(gè)新階段,這個(gè)階段可能同樣令人擔(dān)憂(yōu)和迷惑。但是,幾乎沒(méi)有人問(wèn)這個(gè)問(wèn)題。

奧尼爾等人提醒,算法不透明但可預(yù)測(cè):它們會(huì)按照自己事先被設(shè)計(jì)好的程序來(lái)執(zhí)行。原則上,一個(gè)熟練的程序員可以檢查并挑戰(zhàn)這些算法的編碼基礎(chǔ)。

或許可以說(shuō),這種算法很「愚蠢」,它們只能根據(jù)人類(lèi)所定義的參數(shù)進(jìn)行工作。工作結(jié)果的質(zhì)量取決于編程者的思路和技巧。而另一種極端情況,是由類(lèi)人的通用人工智能(artificial general intelligence,AGI)來(lái)接管所有工作,這個(gè)夢(mèng)想距離現(xiàn)在還很遙遠(yuǎn)。一個(gè)真正的智能機(jī)器將能夠基于其直覺(jué),諸如我們?nèi)祟?lèi)的直覺(jué)(一般被認(rèn)為是廣泛積累起來(lái)的經(jīng)驗(yàn)和知識(shí))那樣,來(lái)質(zhì)疑它自己的計(jì)算質(zhì)量。

Google 的 DeepMind 一開(kāi)始只是為了在街機(jī)游戲中盡可能得高分,便寫(xiě)了一段程序指令,卻最終創(chuàng)建出一個(gè)大師水準(zhǔn)的玩家,它是值得受到稱(chēng)贊的。這種技術(shù)被稱(chēng)為「強(qiáng)化學(xué)習(xí)」,它之所以有效,是因?yàn)橛?jì)算機(jī)可以快速地玩數(shù)百萬(wàn)個(gè)游戲,以便了解哪些步驟組合可以產(chǎn)生更多分?jǐn)?shù)。

有些人稱(chēng)這種能力為「窄人工智能(或弱人工智能,artificial narrow intelligence,ANI)」,但這里對(duì)「智能」一詞的運(yùn)用就如同 Facebook 對(duì)「朋友」這個(gè)詞的使用一樣,意在傳達(dá)出一種比實(shí)際情況更安全、更通達(dá)的含義。

為什么這樣說(shuō)呢?

因?yàn)闄C(jī)器沒(méi)有上下文背景來(lái)判斷自己所做的事情,并且不能做任何其他的事情。關(guān)鍵的是,它也不能把知識(shí)從一個(gè)游戲轉(zhuǎn)移到另一個(gè)游戲(所謂的「轉(zhuǎn)移學(xué)習(xí)(transfer learning)」),這使得它的通用智能比不上一個(gè)小孩,甚至敵不過(guò)一只烏賊。

在某些專(zhuān)業(yè)任務(wù)上,計(jì)算機(jī)已經(jīng)遠(yuǎn)遠(yuǎn)優(yōu)于我們了,但距離全面性趕超,可能還很遙遠(yuǎn)。人類(lèi)可能不是最好的,但是我們?cè)诤芏嗍虑樯鲜堑诙玫摹?/p>

但,問(wèn)題就在這里。

離開(kāi)「愚蠢」的固定算法后,在前往真正的人工智能的途中,人類(lèi)走進(jìn)了途中的一家客棧。

客棧問(wèn)題層出不窮,但我們毫無(wú)頭緒,也幾乎沒(méi)有展開(kāi)討論,更不用說(shuō)在目標(biāo)、道德、安全和最佳實(shí)踐方面達(dá)成一致了。

盡管我們周?chē)乃惴ㄟ€不夠智能,也就是說(shuō),它們還不能獨(dú)立地說(shuō)出「那個(gè)計(jì)算/行動(dòng)過(guò)程看起來(lái)不對(duì):我會(huì)再做一次」,但是,它們正開(kāi)始從其周?chē)沫h(huán)境中進(jìn)行學(xué)習(xí)了。

而一旦算法在學(xué)習(xí),我們就不能再知道任何有關(guān)其規(guī)則和參數(shù)的信息了。在這一點(diǎn)上,我們無(wú)法確定它將如何與其它算法、物理世界或我們?nèi)祟?lèi)進(jìn)行交互。

「愚蠢」的固定算法——復(fù)雜、不透明并且習(xí)慣于實(shí)時(shí)監(jiān)控——在原則上是可預(yù)測(cè)、可審問(wèn)的,而這些會(huì)學(xué)習(xí)的算法則不然。在環(huán)境中學(xué)了一段時(shí)間后,我們不再能知道它們是什么了:它們有可能變得不穩(wěn)定。

我們可能會(huì)稱(chēng)它們?yōu)椤父ヌm肯算法(FrangealGOS)」——盡管瑪麗·雪萊做不到這一點(diǎn)。(譯注:瑪麗·雪萊,科幻小說(shuō)之母,英國(guó)著名小說(shuō)家、英國(guó)著名浪漫主義詩(shī)人珀西·比希·雪萊的繼室,著有《弗蘭肯斯坦——現(xiàn)代普羅米修斯的故事》。)

沖突的代碼

算法開(kāi)始從它們的環(huán)境中進(jìn)行學(xué)習(xí)。

這些算法本身并不是新的。

我第一次遇到它們是在大約 5 年前,當(dāng)時(shí)我在為《衛(wèi)報(bào)》撰寫(xiě)一篇關(guān)于股票市場(chǎng)高頻交易(HFT)的文章。

我發(fā)現(xiàn)它們非同尋常:一個(gè)人類(lèi)打造的數(shù)字生態(tài)系統(tǒng),價(jià)值數(shù)十億美元的數(shù)據(jù)中心遍布成堆黑匣子,它們就像忍者一樣潛伏在那里——這就是股票市場(chǎng)現(xiàn)在的樣子。

那兒一度有一個(gè)實(shí)物交易平臺(tái),所有人的行動(dòng)都會(huì)被轉(zhuǎn)移到一個(gè)中央服務(wù)器,在這個(gè)服務(wù)器中,笨拙的草食性算法會(huì)被輸入給靈活的肉食性算法,通過(guò)彎曲市場(chǎng)狀況,來(lái)誘使他們以低賣(mài)高買(mǎi)。

人類(lèi) HFT 交易者(盡管已不再有人類(lèi)熱衷于此)稱(chēng)這些龐大而緩慢的參與者為「鯨」,它們大多屬于互惠養(yǎng)老基金——即屬于大眾。

對(duì)于大多數(shù) HFT 商店來(lái)說(shuō),鯨魚(yú)現(xiàn)在已經(jīng)成為了主要的利潤(rùn)來(lái)源。

本質(zhì)上,這些算法試圖打敗彼此;它們以光速進(jìn)行無(wú)形的戰(zhàn)斗,每秒對(duì)同一訂單進(jìn)行 10000 次下單和取消操作,或是瘋狂涌入系統(tǒng),致使市場(chǎng)震動(dòng),而所有這些都超出了人類(lèi)的監(jiān)督或控制能力。

顯而易見(jiàn),這種局面是不穩(wěn)定的。

2010 年曾發(fā)生過(guò)一次「閃電崩盤(pán)(flash crash)」,在此期間,市場(chǎng)經(jīng)歷了 5 分鐘的創(chuàng)傷性自由降落,然后又經(jīng)歷了 5 分鐘的重新調(diào)整——原因不明。

我去芝加哥看望了一個(gè)叫 Eric Hunsader 的人,他有著出色的編程技巧,能夠比監(jiān)管機(jī)構(gòu)看到更詳細(xì)的市場(chǎng)數(shù)據(jù)。

他向我展示,截至 2014 年,每周都會(huì)發(fā)生「小型閃電崩潰」。

他甚至也不能確切說(shuō)明其中的原因,但是,他和他的工作人員已經(jīng)開(kāi)始對(duì)出現(xiàn)的一些算法(algos)命名,就像麥田怪圈獵人給英國(guó)夏日田野中發(fā)現(xiàn)的怪圈進(jìn)行命名那樣,比如「野生動(dòng)物」、「祖馬」、「咔嗒」或「破壞者」。

Neil Johnson 是喬治華盛頓大學(xué)一位專(zhuān)攻復(fù)雜性的物理學(xué)家,他做了一項(xiàng)關(guān)于股票市場(chǎng)波動(dòng)性的研究。

「這很迷人,」他告訴我?!肝业囊馑际?,多年來(lái),有關(guān)計(jì)算機(jī)系統(tǒng)生態(tài)學(xué)方面的討論一直比較含糊,比如使用蠕蟲(chóng)病毒這個(gè)詞等等?!?/p>

但這里有一個(gè)可供研究的真正的工作系統(tǒng)。更大的問(wèn)題是,我們不知道它是如何工作的,或者它會(huì)引發(fā)什么事情。

而我們的態(tài)度似乎是「心不在焉」。

值得注意的是,Johnson 關(guān)于這個(gè)問(wèn)題的論文發(fā)表在《自然》雜志上,認(rèn)為股票市場(chǎng)「從一個(gè)混合型人機(jī)階段,突然而全面地轉(zhuǎn)向了一個(gè)新型全機(jī)階段,后一階段的特點(diǎn)是頻繁的黑天鵝事件與超快的持續(xù)時(shí)間」。

根據(jù)科學(xué)歷史學(xué)家 George Dyson 說(shuō)法,由于一些 HFT 公司允許算法進(jìn)行學(xué)習(xí),情況變得復(fù)雜了:

「就是花點(diǎn)兒錢(qián),讓黑匣子多做些嘗試,如果有效,就加強(qiáng)這些規(guī)則。我們知道它已經(jīng)完成了。然后你實(shí)際上有了一些無(wú)人知曉的規(guī)則:算法創(chuàng)建出了自己的規(guī)則——你讓它們以自然進(jìn)化有機(jī)體的方式進(jìn)行了進(jìn)化?!?/p>

非金融行業(yè)觀察家開(kāi)始設(shè)想一場(chǎng)災(zāi)難性的全球「飛濺式崩盤(pán)(splash crash)」,而市場(chǎng)增長(zhǎng)最快的領(lǐng)域?qū)⒊蔀椋ú⑶胰匀皇牵牟▌?dòng)中獲利的工具。

Robert Harris 在他 2011 年的小說(shuō)《恐懼指數(shù)(The Fear Index)》中,設(shè)想了通用人工智能的出現(xiàn)——奇點(diǎn)——正是誕生自這種數(shù)字化沼澤。

令我驚訝的是,受訪(fǎng)科學(xué)家們沒(méi)有一個(gè)會(huì)斷然排除這種可能性。

如果不是因?yàn)橐粋€(gè)簡(jiǎn)單事實(shí),所有這些都會(huì)被斥之為深?yuàn)W的金融知識(shí)。

人們通常認(rèn)為,技術(shù)首先被色情行業(yè)采用,然后才開(kāi)始大眾化。但在 21 世紀(jì),色情就是金融,所以,當(dāng)我似乎看到了類(lèi)似 HFT 的算法在別處引發(fā)問(wèn)題的跡象時(shí),我又打電話(huà)給 Neil Johnson。

「你說(shuō)得對(duì),」他告訴我:一種新的算法正在走向世界,它具有「重寫(xiě)自己代碼的能力」,這時(shí)它就變成了類(lèi)似于一種「遺傳算法」。

他認(rèn)為,自己在 Facebook 中發(fā)現(xiàn)了它們存在的證據(jù)(他補(bǔ)充道:「我的賬戶(hù)被攻擊了 4 次)。

如果是這樣的話(huà),算法就是在那里肆虐,并正在適應(yīng)那個(gè)環(huán)境,就像股票市場(chǎng)所發(fā)生的那樣。

「畢竟,F(xiàn)acebook 就是一個(gè)巨大的算法,」Johnson 說(shuō)到。

物理學(xué)家 Neil Johnson 說(shuō),F(xiàn)acebook 就是一個(gè)巨大的算法。

「我認(rèn)為這正是 Facebook 所面臨的問(wèn)題。

他們可以使用簡(jiǎn)單的算法在他人的照片動(dòng)態(tài)中找到我的臉,從我的個(gè)人資料中獲取數(shù)據(jù),并將我們鏈接在一起。

這是一個(gè)非常簡(jiǎn)單的具體算法。但問(wèn)題是,有數(shù)十億種這樣的算法在協(xié)同工作,它們?cè)诤暧^層面上會(huì)帶來(lái)什么影響?你不能以微觀規(guī)則來(lái)預(yù)測(cè)人口水平上的算法習(xí)得行為。

所以,F(xiàn)acebook 會(huì)聲稱(chēng)他們知道在微層面上到底發(fā)生著什么,他們可能是對(duì)的。但是人口水平上的變化呢?這就是問(wèn)題所在。」

為了強(qiáng)調(diào)這一點(diǎn),Johnson 和來(lái)自邁阿密大學(xué)與圣母大學(xué)的一組同事發(fā)表了一篇論文,題為《公共信息中極端子群的出現(xiàn)和未來(lái) 綁定算法中的可能增強(qiáng)(Emergence of Extreme Subpopulations from Common Information and Likely Enhancement from Future Bonding Algorithms)》,旨在從數(shù)學(xué)上證明,試圖通過(guò)社交媒體來(lái)連接人,不可避免地會(huì)使整個(gè)社會(huì)極化。

他認(rèn)為,F(xiàn)acebook 和其它網(wǎng)站應(yīng)該像氣候科學(xué)家模擬氣候變化或天氣模式那樣,模擬其算法的效果。

奧尼爾說(shuō),她有意將這種自適應(yīng)式算法從《數(shù)學(xué)殺傷性武器》的名單中排除了。在沒(méi)有明確內(nèi)容的復(fù)雜算法環(huán)境中,將責(zé)任分配給特定的代碼段變得極其困難。

也就是說(shuō),它們更容易被忽視或者打發(fā)掉,因?yàn)楹茈y識(shí)別它們產(chǎn)生的確切影響,她解釋道,如果想見(jiàn)證真實(shí)案例,我會(huì)考慮亞馬遜上的閃電崩盤(pán)會(huì)是什么樣子。

「我也一直在尋找這些(自適應(yīng)性)算法,」她說(shuō),「我一直在想:『哦,大數(shù)據(jù)還沒(méi)有到那里?!弧?/p>

但是,最近一位亞馬遜書(shū)商的朋友告訴我,對(duì)于像他這樣的人來(lái)說(shuō),那里的定價(jià)情況已經(jīng)變得十分瘋狂。

每隔一段時(shí)間,你就會(huì)看到有人在推特上寫(xiě)道『嘿,在亞馬遜上花 40000 美元買(mǎi)條奢侈的紗線(xiàn)?!?/p>

每當(dāng)我聽(tīng)到這樣的話(huà),我就想:「啊!那一定和閃電崩盤(pán)差不多!」

亞馬遜上有很異常事件發(fā)生的證據(jù),有來(lái)自困惑賣(mài)家的線(xiàn)索,也有來(lái)自 2016 年后至少一篇的學(xué)術(shù)論文,這些論文聲稱(chēng):

「一些例子已經(jīng)出現(xiàn),競(jìng)爭(zhēng)中的算法定價(jià)軟件正以意想不到的方式相互作用,進(jìn)而產(chǎn)生無(wú)法預(yù)測(cè)的定價(jià),有些情況下,被故意設(shè)計(jì)去實(shí)施固定價(jià)格?!?/p>

問(wèn)題同樣在于,如何在一個(gè)混沌的算法環(huán)境中(簡(jiǎn)單的因果關(guān)系要么不適用,要么根本無(wú)法追蹤)分配責(zé)任。

與金融業(yè)的情況一樣,推諉(deniability)被引入了系統(tǒng)之中。

現(xiàn)實(shí)生活中的危險(xiǎn)

如果事關(guān)人身安全,那就真是茲事體大了。

前不久,一名司機(jī)駕駛著豐田凱美瑞轎車(chē),車(chē)子突然毫無(wú)征兆地開(kāi)始瘋狂加速,最終駛離道路,司機(jī)當(dāng)場(chǎng)身亡。

事后,美國(guó)宇航局的專(zhuān)家花了 6 個(gè)月的時(shí)間檢查了數(shù)百萬(wàn)行的操作系統(tǒng)中的代碼,然而并沒(méi)有發(fā)現(xiàn)所謂的程序問(wèn)題。汽車(chē)制造商也堅(jiān)決否認(rèn)汽車(chē)會(huì)自己突然加速。

直到后來(lái)兩位嵌入式軟件專(zhuān)家花了 20 個(gè)月的時(shí)間深入分析了這些代碼,才證明了家屬所說(shuō)的情況是真實(shí)的:

他們找出了一大堆所謂的「面條代碼」(冗長(zhǎng)、控制結(jié)構(gòu)復(fù)雜混亂、難以理解的代碼),這些代碼充滿(mǎn)互相矛盾、雜糅在一起的算法,進(jìn)而產(chǎn)生異常、不可預(yù)測(cè)的輸出。

目前正在測(cè)試的自動(dòng)駕駛汽車(chē)包含 1 億行代碼,沒(méi)人能夠預(yù)測(cè)在現(xiàn)實(shí)世界中的道路上可能出現(xiàn)的所有情況,所以,算法必須不斷學(xué)習(xí)并持續(xù)更新。

在這樣一個(gè)動(dòng)態(tài)變化的代碼環(huán)境中,如何避免沖突,尤其是當(dāng)算法必須保護(hù)自己免受黑客攻擊時(shí)?

20 年前,George Dyson 在他的經(jīng)典著作《Darwin Among the Machines》中預(yù)見(jiàn)了我們今天發(fā)生的這一切。

他告訴我們,問(wèn)題在于,我們正在構(gòu)建的系統(tǒng)超出了我們的智力所能控制的范圍。

我們相信,如果一個(gè)系統(tǒng)是具備確定性的(根據(jù)固定的規(guī)則行事,這是算法的定義之一),那么,他就是可預(yù)測(cè)的,而可預(yù)測(cè)的算法也是可控的。

然而,這兩種假設(shè)都不成立。

「它(算法)正在以自己的方式,一點(diǎn)點(diǎn)地工作著?!顾麑?xiě)道。

「20 年前,我癡迷于多細(xì)胞生物和多細(xì)胞數(shù)字化有機(jī)組織,如今,他們已經(jīng)占據(jù)了世界的每個(gè)角落。運(yùn)行著代碼片段的 iPhone 就像一個(gè)多細(xì)胞生物,就像生物學(xué)中看到的那樣?!?/p>

「這是一種被稱(chēng)為阿什比定律的古老法則。一個(gè)控制系統(tǒng)需要和被它控制的系統(tǒng)一樣復(fù)雜。

我們正全力朝著這個(gè)目標(biāo)努力著。建造自動(dòng)駕駛汽車(chē)時(shí),軟件必須對(duì)所有需要控制的事物完整建模型,但是,我們無(wú)法理解大多數(shù)模型中的定義代碼。

因?yàn)?,我們能理解的模型通常都是這樣的類(lèi)型:因?yàn)橥洶严儡?chē)納入模型,所以才會(huì)撞向消防車(chē)?!?/p>

我們能否乘坐自動(dòng)駕駛汽車(chē)暢游在城市街道上?對(duì)此,Dyson 提出了疑問(wèn)。與此同時(shí),新南威爾士大學(xué)的人工智能教授 Toby Walsh(此人在 13 歲編寫(xiě)了他的第一個(gè)程序,十八九歲時(shí)運(yùn)營(yíng)了一個(gè)原型的計(jì)算機(jī)公司)從技術(shù)層面上解釋了為什么這會(huì)是一個(gè)問(wèn)題。

「沒(méi)有人知道如何寫(xiě)一段代碼來(lái)識(shí)別停車(chē)標(biāo)志。

我們花了好幾年的時(shí)間試圖利用人工智能技術(shù)做到這一點(diǎn),但是失敗了!我們的愚蠢導(dǎo)致這項(xiàng)工作沒(méi)什么進(jìn)展,人類(lèi)也還沒(méi)聰明到能學(xué)會(huì)如何解決這個(gè)問(wèn)題。

編寫(xiě)程序時(shí),你不得不學(xué)習(xí)將問(wèn)題分解成足夠簡(jiǎn)單的部分,每個(gè)部分都能對(duì)應(yīng)上一條計(jì)算機(jī)指令(針對(duì)機(jī)器的指令)。但諸如識(shí)別停車(chē)標(biāo)志或者翻譯一個(gè)英文句子這樣復(fù)雜的問(wèn)題,我們卻不知道怎么如法炮制,這超出了我們的能力范圍。

我們只知道如何編寫(xiě)一個(gè)更加通用的算法,樣本足夠多的話(huà),系統(tǒng)就能學(xué)會(huì)如何解決這個(gè)問(wèn)題?!?/p>

因此,目前的研究重點(diǎn)放在機(jī)器學(xué)習(xí)上。

現(xiàn)在我們知道,Herzberg 的死是因?yàn)樗惴ㄔ谠噲D對(duì)其進(jìn)行正確的分類(lèi)時(shí),猶豫不決。

這是因?yàn)樵愀獾木幊獭⑺惴ㄓ?xùn)練不夠?還是因?yàn)槲覀兙芙^承認(rèn)技術(shù)的局限性?真正的問(wèn)題是,我們可能永遠(yuǎn)不知道其中的原因。

「我們最終將完全放棄自己動(dòng)手編寫(xiě)算法,因?yàn)檫@些機(jī)器能夠做得比我們做得好很多。

從這個(gè)意義上說(shuō),軟件工程可能是一個(gè)瀕臨淘汰的職業(yè)。它將會(huì)被機(jī)器接管,機(jī)器將會(huì)比我們做得更好?!筗alsh 繼續(xù)說(shuō)道。

Walsh 認(rèn)為,社會(huì)大眾學(xué)習(xí)編程知識(shí)是很重要的,而不是無(wú)足輕重。越疏遠(yuǎn),它就會(huì)看起來(lái)更像魔法。

針對(duì)前文給出「算法」定義,他也認(rèn)為這種定義不完整:

「我想指出,現(xiàn)在的算法指的是所有大型、復(fù)雜的決策軟件系統(tǒng)及其嵌入的環(huán)境,這使得它們更加不可預(yù)測(cè)。」

這的確是個(gè)令人不寒而栗的想法。

他認(rèn)為,倫理道德將會(huì)成為科技領(lǐng)域新的前沿?zé)狳c(diǎn),他預(yù)測(cè)這是「一個(gè)哲學(xué)的黃金時(shí)代」,普渡大學(xué)網(wǎng)絡(luò)安全專(zhuān)家 Eugene Spafford 也對(duì)此表示認(rèn)同。

「在需要做出選擇的地方,就會(huì)產(chǎn)生道德問(wèn)題。我們往往會(huì)想要有一個(gè)可以問(wèn)責(zé)的機(jī)構(gòu),但對(duì)于一個(gè)算法來(lái)說(shuō),這是非常困難的。

到目前為止,人們對(duì)于這類(lèi)系統(tǒng)的批評(píng)之一就是:不可能回過(guò)頭來(lái)分析做出某些決策的原因,因?yàn)橄到y(tǒng)內(nèi)部做出的選擇實(shí)在是太多了,以至于做出責(zé)任分析并非人力所及?!?/p>

也有人持不同看法。一旦一個(gè)程序出錯(cuò)了,我們可以對(duì)相關(guān)的所有程序進(jìn)行重寫(xiě)或更新,這樣問(wèn)題就不會(huì)再次發(fā)生。人類(lèi)容易重蹈覆轍,但智能機(jī)器不會(huì)。

雖然從長(zhǎng)遠(yuǎn)來(lái)看,自動(dòng)化機(jī)器應(yīng)該更加安全,由于現(xiàn)有的侵權(quán)法規(guī)定侵權(quán)行為必須出于故意或過(guò)失,因此,這種法律要件理論需要加以反思了。

一條狗不會(huì)因?yàn)橐Я四愣?fù)法律責(zé)任,但是如果這條狗的行為被認(rèn)為是可以預(yù)見(jiàn)的,那么,它的主人就需要負(fù)責(zé)。

在一個(gè)算法的環(huán)境中,許多意想不到的結(jié)果,是人類(lèi)不可預(yù)見(jiàn)的,這種特性可能會(huì)導(dǎo)致一種無(wú)賴(lài)式的做法,故意混淆概念會(huì)變得更容易,也會(huì)為某些人帶來(lái)好處。

比如目前,一些制藥公司一直在從這種復(fù)雜性中受益,但后果也會(huì)更嚴(yán)重,并且更加難以逆轉(zhuǎn)。

Uber 致命車(chē)禍調(diào)查

軍事風(fēng)險(xiǎn)

不過(guò),在未來(lái),影響最嚴(yán)重的領(lǐng)域可能并非商業(yè)、社交媒體、金融和交通。如果軍方不再像過(guò)去一樣推動(dòng)創(chuàng)新,它將是最受影響的技術(shù)采用者。

因此,自動(dòng)武器正在變成一場(chǎng)算法軍備競(jìng)賽,這也就不足為奇了。

目前,朝鮮和韓國(guó)之間的非軍事區(qū)由一名機(jī)器人槍手執(zhí)勤。盡管其制造商三星否認(rèn)它有自動(dòng)化行動(dòng)的能力,但外界普遍不相信這一說(shuō)法。

俄羅斯、中國(guó)和美國(guó)都聲稱(chēng)他們正處于研發(fā)協(xié)同化、武器化無(wú)人機(jī)群的不同階段,而美國(guó)還計(jì)劃讓導(dǎo)彈在戰(zhàn)場(chǎng)上空盤(pán)旋數(shù)日進(jìn)行觀察,然后選定攻擊目標(biāo)。

一群谷歌的雇員為此辭職,另有數(shù)以千計(jì)的人質(zhì)疑這家科技巨頭向五角大樓的 Maven 計(jì)劃「算法戰(zhàn)爭(zhēng)」項(xiàng)目提供機(jī)器學(xué)習(xí)算法。

谷歌的管理層最終對(duì)此作出回應(yīng),同意不續(xù)簽 Maven 計(jì)劃的合同,并公布了使用其算法的道德準(zhǔn)則。

谷歌的員工因公司向五角大樓的「算法戰(zhàn)爭(zhēng)」計(jì)劃提供機(jī)器學(xué)習(xí)軟件而憤然辭職。

和其他的科技公司一樣,谷歌也聲稱(chēng)其 Maven 軟件符合道德準(zhǔn)則:

它可以幫助人們更有效地選擇目標(biāo),從而挽救生命。

但問(wèn)題是,技術(shù)管理人員如何能夠假定自己知道他們的算法將會(huì)做什么,在實(shí)際情況中,被指導(dǎo)去做什么——特別是考慮到,各方都會(huì)開(kāi)發(fā)出相應(yīng)的算法對(duì)抗系統(tǒng),以迷惑敵方武器。

和股市的情況一樣,不可預(yù)測(cè)性很可能被視為一種優(yōu)勢(shì)而非障礙,因?yàn)?,武器?huì)因此變得更有可能抵抗企圖破壞它們的企圖。

如此以來(lái),我們實(shí)際上正在冒險(xiǎn)徹底改造我們的機(jī)器,用意大利面條式的(復(fù)雜而難以理解的)代碼包裝本來(lái)尋常之物。

英國(guó) Lancaster 大學(xué)的 Lucy Suchman 與人合寫(xiě)了一封致谷歌的公開(kāi)信,要求他們反思將工作與軍事相聯(lián)系的狂熱做法。

她說(shuō),科技公司的動(dòng)機(jī)很容易被理解:軍事合同總是伴隨著覺(jué)得利益。而對(duì)五角大樓來(lái)說(shuō),

「他們被數(shù)據(jù)淹沒(méi)了,因?yàn)橛行碌姆椒▉?lái)收集和存儲(chǔ)數(shù)據(jù),但他們無(wú)法處理這些數(shù)據(jù)。所以這些數(shù)據(jù)基本上是無(wú)用的,除非有奇跡發(fā)生。

我認(rèn)為,它們尋求與大數(shù)據(jù)公司的合作是一個(gè)很神奇的想法:這些公司有很神奇的技術(shù),可以讓這些數(shù)據(jù)有意義?!?/p>

Suchman 還提供了一些統(tǒng)計(jì)數(shù)據(jù),讓人對(duì) Maven 計(jì)劃不寒而栗。

2003 年到 2013 年間在巴基斯坦進(jìn)行的無(wú)人機(jī)襲擊中,只有不到 2% 的被害人被確認(rèn)為對(duì)美國(guó)構(gòu)成明顯威脅的「高價(jià)值」目標(biāo)。

20% 的被射殺的人被認(rèn)為是非戰(zhàn)斗人員,而 75% 的人的身份未知。

即使只有這些數(shù)字的二分之一、三分之一、四分之一,任何理性的人都會(huì)停止這樣的行為。

「我們現(xiàn)在使用的識(shí)別技術(shù)是很粗糙的,而 Maven 計(jì)劃想要做的是實(shí)現(xiàn)這種技術(shù)的自動(dòng)化。從這一點(diǎn)上說(shuō),它變得更加不負(fù)責(zé)任,更容易受到質(zhì)疑。這是個(gè)很糟糕的主意」。

Suchman 的同事 Lilly Irani 在加州大學(xué)圣地亞哥分校工作,她提醒我們,信息在一個(gè)算法系統(tǒng)中以光速傳播,沒(méi)有人對(duì)其進(jìn)行監(jiān)管。她以此暗示,技術(shù)上的討論常常被用作煙幕彈,以逃避責(zé)任。

「當(dāng)我們談?wù)撍惴ǖ膽?yīng)用時(shí),有時(shí)是在討論官僚系統(tǒng)。

算法設(shè)計(jì)人員和政策專(zhuān)家所做的選擇被視為客觀,在過(guò)去,必須有人為這些選擇負(fù)責(zé)。而科技公司說(shuō),它們只是通過(guò) Maven 計(jì)劃來(lái)提高準(zhǔn)確率,比如,更多真正的威脅分子得到擊斃。

也就是說(shuō),從政治角度出發(fā),假設(shè)那些站在他們世界的對(duì)立面的人更因該被殺死,而美國(guó)軍隊(duì)則會(huì)定義什么樣的人有嫌疑,不容許有任何爭(zhēng)議。

所以,他們是打著科技問(wèn)題的旗號(hào)解決一些政治問(wèn)題。選擇算法來(lái)自動(dòng)化某些決策過(guò)程,也是出于政治考慮?!?/p>

現(xiàn)代戰(zhàn)爭(zhēng)的法律公約,盡管可能不完善,但它假設(shè)作出決定的人要承擔(dān)責(zé)任。至少,算法戰(zhàn)爭(zhēng)正在以一種我們可能要后悔的方式,攪渾了現(xiàn)代戰(zhàn)爭(zhēng)的這潭水。

尋找解決之道

對(duì)于本文描述的大多數(shù)問(wèn)題來(lái)說(shuō),已經(jīng)存在解決方案,或者,我們可以試著找到一種解決方案,但前提是:大型科技公司將社會(huì)的良性發(fā)展,作為公司底線(xiàn)。

長(zhǎng)期來(lái)看,更為嚴(yán)重的問(wèn)題是,越來(lái)越多的人推測(cè)當(dāng)前的編程方法不再能實(shí)現(xiàn)某種目的,鑒于人類(lèi)日益依賴(lài)的算法系統(tǒng)的規(guī)模、復(fù)雜性和相互依賴(lài)性。

聯(lián)邦航空管理局的解決方案是:詳細(xì)記錄和評(píng)估所有項(xiàng)目的內(nèi)容以及后續(xù)更新,以便事先很好地理解算法交互,但這不可能大規(guī)模展開(kāi)。

航空航天工業(yè)的部分單位采用了一種相對(duì)較新的基于模型的編程方法,在這種方法中,機(jī)器完成了大部分的編碼工作,并且能夠在運(yùn)行時(shí)進(jìn)行測(cè)試。

然而,基于模型的編程可能并不是萬(wàn)能鑰匙。

它不僅讓人們遠(yuǎn)離了這一編程過(guò)程,而且物理學(xué)家 Johnson 為美國(guó)國(guó)防部所做的一項(xiàng)研究發(fā)現(xiàn):即使在使用這種技術(shù)構(gòu)建的大型復(fù)雜系統(tǒng)中,「也無(wú)法從代碼本身推導(dǎo)出系統(tǒng)可能做出的極端行為。」

人們投入了大量精力尋找追蹤不符合預(yù)期的算法的行為,從而確定導(dǎo)致這種情況發(fā)生的具體代碼的位置。沒(méi)有人知道是否會(huì)找到一種(或多種)解決方案,但在那些具有攻擊性的算法被設(shè)計(jì)得互相沖突或/和互相適應(yīng)的情況下,確實(shí)還沒(méi)有一種辦法行得通。

等待研究人員給出一個(gè)關(guān)于熱議的算法糾紛問(wèn)題的技術(shù)答案時(shí),我們可以采取一些預(yù)防措施。英國(guó)定量分析專(zhuān)家、對(duì)股市高頻交易發(fā)出嚴(yán)正批評(píng)的 Paul Wilmott 諷刺地說(shuō),「學(xué)學(xué)射擊、做果醬或者編織」。

更實(shí)際的做法是,軟件安全專(zhuān)家 Spafford 建議,無(wú)論能否識(shí)別特定的異常代碼或證明與之相關(guān)的疏忽,都要讓科技公司為其產(chǎn)品的行為負(fù)責(zé)。

「基本上,我們需要一種新的科學(xué)形態(tài)。」Neil Johnson 說(shuō)。

僅僅在幾年前,當(dāng) Johnson 和我最后一次討論這個(gè)話(huà)題時(shí),我的問(wèn)題還只是小眾關(guān)注的問(wèn)題,僅僅限于少數(shù)對(duì)股市進(jìn)行細(xì)節(jié)研究的人。

「現(xiàn)在,這種情況甚至影響了選舉。我的意思是,這到底是怎么了。

我認(rèn)為,深層次的科學(xué)問(wèn)題是,軟件工程師接受的訓(xùn)練是編寫(xiě)程序,優(yōu)化工作。這很有道理,因?yàn)槟憬?jīng)常會(huì)優(yōu)化諸如分布在一個(gè)平面上的權(quán)重、最節(jié)能的速度這樣的問(wèn)題。

一般來(lái)說(shuō),在可預(yù)期的情況下,優(yōu)化工作是有意義的。但是,在一些特殊的情況下,它也會(huì)失去意義,我們需要考慮:

『一旦著個(gè)算法開(kāi)始與其他人進(jìn)行交互,可能發(fā)生的最糟糕的事情是什么?』問(wèn)題是,我們甚至沒(méi)有一個(gè)詞語(yǔ)能夠描述它,更不用說(shuō)研究它的學(xué)科了?!?/p>

他停頓了片刻,試圖思考這個(gè)問(wèn)題

「所謂優(yōu)化,要么最大化對(duì)象,要么就是最小化,在計(jì)算機(jī)科學(xué)中,都是一個(gè)意思。因此,優(yōu)化的反義詞是什么?比如,最小優(yōu)化案例中,如何識(shí)別、測(cè)量它?

我們需要提出的問(wèn)題,『在我認(rèn)為自己正在優(yōu)化的系統(tǒng)中,最極端的行為可能是什么?』」。

他再次陷入了沉默,最終發(fā)出了略帶驚訝的聲音。

「基本上,需要一種新的科學(xué)?!顾f(shuō)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4900

    瀏覽量

    70765
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    790

    文章

    14321

    瀏覽量

    170697

原文標(biāo)題:「弗蘭肯算法」:致命的不可測(cè)代碼

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    運(yùn)放的哪些參數(shù)可以反映出它的不對(duì)稱(chēng)性?

    運(yùn)放的對(duì)稱(chēng)性在溫度低的時(shí)候可能不是很明顯,影響也不大,但是隨著溫度的升高(例如從25度~~120度),溫度升高輸出方波的上述時(shí)間跟下降時(shí)間偏差也會(huì)越大,提高運(yùn)放的SR能相對(duì)的減弱這種不對(duì)稱(chēng)的影響,但是導(dǎo)致這種不對(duì)稱(chēng)的根本原因是什么?運(yùn)放的哪些參數(shù)可以反映出它的不對(duì)稱(chēng)性?
    發(fā)表于 09-10 08:12

    汽車(chē)自動(dòng)駕駛技術(shù)

    請(qǐng)問(wèn)各位老鳥(niǎo)我是新手汽車(chē)自動(dòng)駕駛技術(shù)是怎么回事,是用什么板子開(kāi)發(fā)的需要應(yīng)用哪些技術(shù)和知識(shí)。提問(wèn)題提得不是很好請(qǐng)各位見(jiàn)諒
    發(fā)表于 04-14 20:44

    【話(huà)題】特斯拉首起自動(dòng)駕駛致命車(chē)禍,自動(dòng)駕駛的冬天來(lái)了?

    自動(dòng)駕駛技術(shù)已經(jīng)有足夠積累,雖然還不完美無(wú)缺,但是可以投入商用,科技都是在使用中完善的,不能遭被蛇咬,十年怕井繩,難道發(fā)生次空難之后,以后飛機(jī)就停飛啦?
    發(fā)表于 07-05 11:14

    自動(dòng)駕駛真的會(huì)來(lái)嗎?

    自動(dòng)駕駛和背后技術(shù)有了更廣泛地討論、更深刻地認(rèn)知;另方面則是讓不少風(fēng)投看到了機(jī)會(huì),認(rèn)為傳感器芯片為代表的硬件研發(fā),以及計(jì)算機(jī)視覺(jué)為支撐的軟件技術(shù),將會(huì)迎來(lái)更大的關(guān)注度。特斯拉的aut
    發(fā)表于 07-21 09:00

    因?yàn)椤覆粔虬踩梗覀兙捅仨毦芙^自動(dòng)駕駛汽車(chē)上路?

    當(dāng)提及自動(dòng)駕駛汽車(chē),汽車(chē)行業(yè)本身在追問(wèn),***的規(guī)則制定者和安全倡導(dǎo)者們都在糾結(jié)個(gè)基礎(chǔ)的問(wèn)題:究竟如何才是足夠安全?這有點(diǎn)像是一場(chǎng)發(fā)生在汽車(chē)制造商和新科技的研發(fā)方式之間的爭(zhēng)斗。例如特斯拉,他們認(rèn)為
    發(fā)表于 04-08 11:17

    自動(dòng)駕駛的到來(lái)

      傳統(tǒng)汽車(chē)廠(chǎng)商更趨向于通過(guò)技術(shù)的不斷積累,場(chǎng)景的不斷豐富,逐步從輔助駕駛過(guò)渡到半自動(dòng)駕駛,進(jìn)而在將來(lái)最終實(shí)現(xiàn)無(wú)人駕駛;某些高科技公司則希望通過(guò)各種外部傳感器實(shí)時(shí)采集海量數(shù)據(jù),處理器經(jīng)
    發(fā)表于 06-08 15:25

    AI/自動(dòng)駕駛領(lǐng)域的巔峰會(huì)議—國(guó)際AI自動(dòng)駕駛高峰論壇

    已經(jīng)滲透到了社會(huì)生活的方方面面。人工智能在自動(dòng)駕駛領(lǐng)域?qū)?duì)整個(gè)汽車(chē)出行領(lǐng)域產(chǎn)生顛覆性變革。汽車(chē)的人工智能技術(shù)和數(shù)據(jù)后端的最新突破使自動(dòng)駕駛成為可能。深度學(xué)習(xí)、高級(jí)數(shù)字助理和動(dòng)態(tài)電子視野方面的新科技
    發(fā)表于 09-13 13:59

    無(wú)人駕駛自動(dòng)駕駛的差別性

    探測(cè)技術(shù)基礎(chǔ)是以激光雷達(dá)(LiDar)為核心,融合多種技術(shù)。此次事故中反映出“輔助駕駛”升級(jí)路線(xiàn)的兩大“痛點(diǎn)”,是責(zé)任問(wèn)題,二是可靠性問(wèn)題
    發(fā)表于 09-28 16:50

    如何讓自動(dòng)駕駛更加安全?

    上學(xué)……在歐洲,些志愿者家庭參加了自動(dòng)駕駛汽車(chē)在公共道路上的測(cè)試。對(duì)行駛狀況的監(jiān)測(cè),將給汽車(chē)工程師提供高價(jià)值的真實(shí)道路測(cè)試數(shù)據(jù),幫助完善自動(dòng)駕駛技術(shù)。在國(guó)內(nèi),上海、北京近期開(kāi)始發(fā)放國(guó)
    發(fā)表于 05-13 00:26

    為何自動(dòng)駕駛需要5G?

    決策旦出現(xiàn)交通事故,重則導(dǎo)致人身傷亡,因此,自動(dòng)駕駛對(duì)技術(shù)安全的要求相當(dāng)苛刻,需實(shí)現(xiàn)接近100%的安全性。簡(jiǎn)而言之,自動(dòng)駕駛就是通過(guò)傳感器收集全面的環(huán)境信息,再對(duì)信息融合處理,并作出
    發(fā)表于 06-08 07:00

    聯(lián)網(wǎng)安全接受度成自動(dòng)駕駛的關(guān)鍵

    隨著時(shí)代的演進(jìn)與汽車(chē)工業(yè)技術(shù)、機(jī)器視覺(jué)系統(tǒng)、人工智能和傳感器相關(guān)技術(shù)上不斷創(chuàng)新與進(jìn)步,無(wú)人自動(dòng)駕駛汽車(chē)已不是件遙不可及的夢(mèng)想,Google與國(guó)際車(chē)廠(chǎng)相繼針對(duì)
    發(fā)表于 08-26 06:45

    如何保證自動(dòng)駕駛的安全?

    美好未來(lái)到來(lái)的更快。AI還在路測(cè),黑客們的自動(dòng)駕駛已經(jīng)成熟了這點(diǎn)并不是危言聳聽(tīng),在自動(dòng)駕駛汽車(chē)還處在路測(cè)階段時(shí),汽車(chē)黑客就已經(jīng)能在地球另端把你家汽車(chē)開(kāi)走了。早在2015年的
    發(fā)表于 10-22 07:45

    2020年自動(dòng)駕駛汽車(chē)成熟度指數(shù)分析

    區(qū)域化應(yīng)用測(cè)試,為自動(dòng)駕駛時(shí)代來(lái)臨做好政策和數(shù)字基建支撐。 自動(dòng)駕駛汽車(chē)正步入技術(shù)發(fā)展成熟期,各國(guó)中央和地方***通過(guò)多種關(guān)鍵政策和投資決策,使其能夠在社會(huì)中實(shí)現(xiàn)安全有效的運(yùn)用。自動(dòng)駕駛
    發(fā)表于 01-22 06:01

    自動(dòng)駕駛系統(tǒng)設(shè)計(jì)及應(yīng)用的相關(guān)資料分享

    作者:余貴珍、周彬、王陽(yáng)、周亦威、白宇目錄第自動(dòng)駕駛系統(tǒng)概述1.1 自動(dòng)駕駛系統(tǒng)架構(gòu)1.1.1 自動(dòng)駕駛系統(tǒng)的三個(gè)層級(jí)1.1.2 自動(dòng)駕駛
    發(fā)表于 08-30 08:36

    自動(dòng)駕駛技術(shù)的實(shí)現(xiàn)

    k隨著汽車(chē)電子的日益復(fù)雜化以及汽車(chē)電子電氣架構(gòu)(EEA)的升級(jí),人們對(duì)于聯(lián)網(wǎng)智能汽車(chē)的需求也在逐步上升,大量先進(jìn)技術(shù)往汽車(chē)上應(yīng)用,如高級(jí)駕駛輔助系統(tǒng)(ADAS)、自動(dòng)駕駛等,這些新
    發(fā)表于 09-03 08:31