近日,美國特斯拉得州超級工廠的一名工程師在維修機器人時被抓傷。與以往類似的機器人安全事故一樣,該事件被媒體廣泛報道,甚至用“機器人暴起傷人”“機器人突然襲擊”之類的標題吸引公眾眼球。
實際上,所有的勞動場所尤其是現(xiàn)代化工廠,均存在各種安全隱患,管理方歷來高度重視安全問題。德國社會學家烏爾里希·貝克在其《風險社會》一書中就提出,當代社會是風險社會,危險大幅增加是當代社會的重要特征,因而安全問題更加突出。
因此,工廠機器人出現(xiàn)安全事故,本是件平常的事,卻被媒體添加了許多神秘色彩,認為機器人安全事故與其他安全事故不同,因為機器人“有想法”,可能“主動”傷害人,甚至稱這是機器人“覺醒”的結果。在很大程度上,此類報道是對機器人安全風險的夸大。
自20世紀五六十年代人工智能(AI)概念提出后,每一波AI熱潮中“AI覺醒”都會被討論。1997年,國際象棋機器人深藍(Deep Blue)擊敗俄羅斯國際象棋大師,有人就覺得它已經有了意識,甚至還編造Deep Blue輸給了人類棋手后惱羞成怒放電殺死對手的假新聞。2016年,阿爾法圍棋(AlphaGo)大敗圍棋世界冠軍李世石,又有人認為AlphaGo有意識了。總之,經過不斷炒作,“AI覺醒”已成為AI文化乃至流行文化的重要話題。
早在20世紀90年代就有一些學者指出,“AI覺醒”“超級AI”是AI圈子“吸金”和“吸睛”的法寶——通過類似問題的娛樂化討論來宣傳AI,吸引資金流向AI,從而壯大自身。
在AI實際發(fā)展歷程中,類似“AI覺醒”的宣傳術的確起到很好的推動效果。第一,它抓住了人們的“癢點”,由于很多人覺得類似問題很好玩、很有趣,因此它特別適合成為娛樂元素;第二,它抓住了人們的“痛點”,宣傳超級AI馬上到來很可能統(tǒng)治人類,會讓人們害怕;第三,它抓住了社會的“熱點”,因為超級AI無所不能,甚至能解決氣候變化等熱點問題,于是所有的熱點問題都被納入AI宣傳術當中。
正是在“AI覺醒”的宣傳氛圍中,機器人安全問題才被媒體特別關注,并以一種擬人化的口吻進行報道。實際上,迄今為止并沒有證據表明機器人有任何“覺醒”的跡象。因此,與以往勞動安全問題相比,機器人并沒有什么特殊的地方,不可夸大機器人安全問題。
當然,機器人安全問題雖然沒有特殊之處,但并不代表我們可以忽視它。智能革命方興未艾,機器人替代人類勞動的情況越來越流行,全面自動化的“黑燈工廠”越來越普遍,與機器人相關的安全風險必然越來越大,毫無疑問將受到國家、企業(yè)、社會和勞動者的更多關注。
有意思的是,“機器人覺醒”的想法既可能讓人們覺得機器人安全問題很特殊,也可能讓大家忽視它。為什么?一些人可能認為,機器人有意識、有想法、有道德,不是“死”機器,能判斷可能出現(xiàn)的危險,因此不容易出現(xiàn)安全問題。因此,這些人在操作、維護和檢修機器人時,可能會麻痹大意,忽視可能出現(xiàn)的危險。比如,在特斯拉機器人傷人的新聞中,維修工程師應該事先關閉電源,或者阻斷機器人的運動功能。
總之,要正確看待機器人安全風險,既不可夸大,亦不可忽視。
在正確看待的基礎上,國家、企業(yè)、社會和勞動者必須重視防范機器人安全風險,保護勞動者在生產過程中的安全。顯然,安全是一項以人為本的復雜、系統(tǒng)、科學和細致的工作。機器人安全文化建設應更加系統(tǒng)地對待機器人安全問題,既包含與機器人相關的安全科學、安全教育、安全管理、安全法制等精神、制度領域,也包含與機器人相關的安全技術、安全工程等物質領域,必須全面進行建設。
針對機器人安全工作,要專門進行研究,制定嚴格的規(guī)章制度,在勞動場所認真落實,由此掌握安全工作的主動權,著力于事前預防,而不是事后補救。
目前,大家的機器人安全意識還不強,因此要特別強調宣傳教育在機器人安全文化建設中的關鍵作用。機器人安全文化宣傳教育的目的,就是要利用文化從更深層次影響企業(yè)員工的觀念、道德、態(tài)度、情感和品行等,幫助樹立“安全第一”“以人為本”的安全價值觀,形成“關注安全”“關注生命”的安全理念,提高與機器人相關的安全素質和安全修養(yǎng),加強安全責任心和使命感,最終使其行為自覺滿足機器人安全的需要。