機器人和機器的決策在道德上并不總是正確的。
科技企業(yè)是時候關(guān)注機器道德了!
機器人和機器正在做出正確的決定,然而,其選擇在道德上并不總是正確的。現(xiàn)在是關(guān)注機器道德的時候了!隨著機器學(xué)習(xí)成為吸引Microsoft等企業(yè)投資和研究的中心,機器學(xué)習(xí)的增長和改進的渴望似乎永無止境。
機器學(xué)習(xí)是人工智能的一個分支,是機器向用戶學(xué)習(xí)的過程,并在數(shù)據(jù)分析的幫助下專注于最終改善流程運行方式的當(dāng)前狀態(tài)。機器學(xué)習(xí)是根據(jù)工程師提供的算法工作的??缧袠I(yè)的機器學(xué)習(xí)應(yīng)用具有重要意義,因為其能夠從過去的信息中學(xué)習(xí),并建議企業(yè)做出最適合自己的決策。
盡管機器可以幫助人們和企業(yè)做出正確的決策,但決策的道德方面卻是機器所缺乏的。機器道德可以幫助其決定決策的正確性和錯誤性,而不僅僅是關(guān)注某種情況下的理想決策。由于機器能夠做出改善業(yè)務(wù)的決策,機器道德可以幫助在全球范圍內(nèi)發(fā)展多種情況。當(dāng)機器道德得到全面實施時,人們和企業(yè)就可以期望機器是動態(tài)的,并且清楚地了解什么是道德正確的。
什么是機器道德?
通過使用人工智能和機器學(xué)習(xí),利用機器學(xué)習(xí)的研究人員和先驅(qū)者推測,一個前所未有的機器時代,將對現(xiàn)有人類生活構(gòu)成威脅。Stephen Hawking在接受BBC采訪時表示,“人工智能的全面發(fā)展可能意味著人類的終結(jié)。”當(dāng)機器向人類和提供給其算法學(xué)習(xí)時,向傳統(tǒng)機器學(xué)習(xí)傳授機器道德,將需要創(chuàng)建能夠更好地幫助機器區(qū)分道德上正確和錯誤的算法。機器道德可以改善機器學(xué)習(xí)的原因之一是,其能夠在陷入道德困境時做出決定。機器學(xué)習(xí)專注于客觀指標,可以幫助企業(yè)做出通用選擇,但有了機器道德,機器可以做出符合道德的決定,因為這些決定很大程度上基于直覺,這與機器每天做出的決定相比極其復(fù)雜。所以基本上,機器道德只會專注于改進機器學(xué)習(xí),并使其能夠做出正確的決策。
機器道德的未來是什么?
即使對機器學(xué)習(xí)和人工智能有不同的看法,企業(yè)也會努力專注于讓機器保持道德,并始終致力于讓機器用于崇高的目的。未來,機器道德可以有效地被證明是,例如,精英保姆在照顧孩子時,充分了解如何才能充分照顧孩子。為了使機器在道德上變得正確,程序員必須制定出普遍接受的,并且可以說是高度道德的算法。機器道德是一個還很遙遠的概念,并且已經(jīng)啟動了一些計劃來保持人工智能和機器學(xué)習(xí)的良好狀態(tài),但其發(fā)展速度足以讓組織開始對該技術(shù)進行初步研究。作為人類,我們在執(zhí)行特定任務(wù)時缺乏道德知識。