SAP軟件解決方案公司的首席學習官珍妮·迪爾伯恩(JennyDearborn)對此觀點表示贊同。事實上,她說,教育好人工智能知識和如何最好地利用它是至關(guān)重要的。
她告訴CNBC:“人工智能將無處不在,這將是我們社會最普遍的一個現(xiàn)象,這種現(xiàn)象不會被明顯看到,但它會隱藏在一切的背后。”
迪爾伯恩認為人工智能會影響我們所做的一切
迪爾伯恩表示,它會影響我們所做的一切,包括掃描徽章,滾動網(wǎng)頁,使用應(yīng)用程序和家庭傳感器系統(tǒng)以及許多其他日常生活方面。因此,人工智能將會不斷地收集數(shù)據(jù)和個人信息。企業(yè)可以利用這些信息和應(yīng)用算法來了解你的行為。
她還表示:“我們需要使用人工智能來使人類更加強大,而不是取代人類。我們需要更多的人就如何使用人工智能發(fā)表他們的看法,這樣我們才不會被人工智能所利用?!?/p>
但誰會利用我們,我們?yōu)槭裁匆⌒哪??迪爾伯恩說,有三家人工智能前沿公司:谷歌、Facebook和亞馬遜。她說,如果人類被人工智能利用,這三家公司將獲益最多。人們需要深入了解人工智能的滲透程度,這樣他們才不會在某天醒來說“我一直就是一顆棋子”。
迪爾伯恩認為這是一個極端但似乎合理的情形。她問:“誰來做這個決定?”她說,如果我們不參與人工智能的討論,那么這些大公司將會擁有所有的話語權(quán)。
迪爾伯恩擔心,為方便起見,人們樂意泄露隱私。她表示:“他們說‘我接受’,但是,如果一家公司越過紅線怎么辦呢?”
迪爾伯恩說:“現(xiàn)在大多數(shù)公司都持有比政府更大的權(quán)力?!苯窈髸写罅筷P(guān)于隱私,個人自由和紅線的討論。因此,教育是關(guān)鍵。
迪爾伯恩表示,我們應(yīng)該決定我們希望新經(jīng)濟是怎樣的,并理解我們在其中扮演的角色,參與討論,做一個有知情權(quán)的公民。這樣,關(guān)于人工智能如何被設(shè)計和以何為導向,社會大體上可以做出明智的決定。
馬斯克認為人工智能對人類文明的存在構(gòu)成了根本性的風險
馬斯克表示贊同,他說:“人工智能對人類文明的存在構(gòu)成了根本性的風險,這與汽車事故、飛機相撞、藥物錯配、食品安全的影響方式不同,后者只會對社會局部造成損害,不會對整個社會造成威脅?!?/p>
迪爾伯恩的解決方案如下:“我們應(yīng)該訓練年輕人對我們要去往哪里持批評態(tài)度?!彼f,她支持年輕人進入科技行業(yè),事實上,對我們生活產(chǎn)生最大影響的重大決策經(jīng)常來自于科技行業(yè),而不是政府。如果你想從事衛(wèi)生保健行業(yè),就選擇以醫(yī)療保健為重點的科技類專業(yè);如果你想成為一名神經(jīng)系統(tǒng)的科學家,那就選擇以神經(jīng)系統(tǒng)為重點的科技類專業(yè)?!?/p>
迪爾伯恩補充說,我們最大的社會責任是弄清楚社會如何使用人工智能。她舉了這樣一個例子:谷歌一直在嘗試自動駕駛汽車。但是,如果一輛無人駕駛汽車即將發(fā)生碰撞,它必須在拯救駕駛員和撞向人群,或避開人群但讓載有駕駛員的汽車發(fā)生碰撞之間做出一個數(shù)學決策,那該怎么辦?
盡管她承認這是一個極端的例子,但迪爾伯恩說,人們很快就必須回答這類型的問題。因此,讓更多不同的人群參與到有關(guān)人工智能開發(fā)和應(yīng)用方式的討論很重要。
她說:“這就像創(chuàng)建一個政府結(jié)構(gòu)和社會秩序。你需要確保建立這些系統(tǒng)的人有平等的代表權(quán),多樣性和包容性?,F(xiàn)在的科技領(lǐng)域以白人男性為主,他們對我們的道德和社會原則制定了規(guī)則。對此,我們不能采取自由放任的方式。這些都是道德準則和紅線,不能讓一個營利性公司自己做出這些決定?!?/p>
更多資訊請關(guān)注工業(yè)機器人頻道