不到十年前,“設計”這個詞主要與美學、調色板和臭名昭著的 Comic Sans 字體相關聯。然而,在幾年的時間里,設計已經從大多數人并不真正關心的東西變成了對我們日常生活的強大影響力。越來越多的書籍、設計會議、電視節目和紀錄片探討了設計的破壞性影響或其解決社會、生態或經濟問題的能力。盡管如此,我們并不總是很清楚我們可以用設計方法解決哪些問題,以及設計師可以為解決社會問題做出哪些貢獻,并在一定程度上解決設計本身造成的一些問題。
國外的一部紀錄片《社會困境》從本質上揭示了為什么你從前一分鐘在谷歌上搜索健康快餐到下一分鐘在你的 Instagram 提要上尋找食品廣告。英國反烏托邦系列,黑鏡設想了我們關于技術的最糟糕的噩夢。對日常數字體驗如何影響我們生活的擔憂比以往任何時候都更加強烈。
技術與設計的關系
用戶體驗和以人為本的設計理念席卷了商業世界,但這種力量是有代價的。得出的結論是,大多數數字產品背后都有良好的意圖——改善人類生活質量。然而,這些由杰出的程序員和設計師創造的善意產品,已經被不斷擴展的算法和企業利潤最大化所武裝。毫無疑問,隨著數據驅動系統成為我們生活中越來越重要的一部分,當它們失敗時,我們也會注意到更多。這種決定論的敘述完全忽略了這樣一個事實,即技術是社會的產物和反映,并且是復雜的社會經濟系統的一部分。技術、設計和社會不斷相互影響,它們之間的相互作用是一個三向的過程。
我們中的許多人認為技術是中立的,沒有種族主義、性別歧視或其他困擾人類決策的“主義”。但事實是,社會等級制度,就像種族主義一樣,嵌入在大多數產品和技術的邏輯層中。社交媒體過濾可能是工作中數據驅動系統最常見的例子之一。這是 微博 用朋友的名字自動標記你的照片的時候?;蛘?,考慮決定向您展示哪些新聞和廣告的應用程序,以增加您點擊的機會。
技術有偏見
社會困境最小化了這樣一個現實,即人類設計的方式不僅會復制而且會放大現有的偏見,因為首先創造它們的設計師有自己的偏見。
一個令人不安的例子是 Beauty AI。2016 年首次使用最先進的機器學習技術由機器人評判的選美比賽。它旨在根據皺紋、面部對稱性、膚色、性別、年齡組、和種族。人們訓練深度學習軟件使用預先標記的圖像對美進行編碼。之后,根據算法嵌入的偏好對參賽者的照片進行評判,但結果并不那么樂觀。雖然入圍者跨越不同年齡層,但都是白種人,而且只有一位入圍者的膚色較深。
另一個著名的案例是 Airbnb 早期發生的事情。設計師想讓主人感到非常舒適,因為他們邀請人們進入他們的家。這在當時是一件非常新鮮的事情。 設計決策主要是為了向主人提供盡可能多的信息,讓他們對允許客人進入他們的家感到安全和快樂。他們把名字和照片放在平臺的前面和中心。此外,當時的主人可以隨時拒絕客人,而無需解釋原因。這一決定導致了大量關于歧視的報道。名字聽起來像外國的人和黑人更有可能被拒絕。這是設計團隊完全沒有預料到的。這個例子可以真正展示如何以你意想不到的方式使用設計。
好的設計自然不合乎道德
好的設計可以滿足用戶的需求,但它自然不合乎道德。棘手的是,好的產品和服務——就像 Airbnb 的案例一樣——可以非常方便和令人愉悅,在它們失控或我們個人受到影響之前,我們可能不會感受到任何負面影響。 好的設計可能會產生意想不到的負面后果和問題。例如,在用戶研究或不道德地收集和使用數據中,邊緣化或弱勢群體的代表性不足。
多層數據
隨著社會對這些新技術對我們生活的社會、政治和情感領域的不可預見后果的認識不斷提高,越來越多的人開始對大型科技公司持懷疑態度。社會困境很好地突出了定向廣告如何利用我們的心理脆弱性來操縱我們。然而,這部紀錄片只關注社交媒體的心理方面及其成癮效應。它未能探索通過這些新開發的技術和使用這些類似的、不道德的商業模式的產品而建立的資本主義形式。
技術和隱私
監視資本主義時代,一位專家對數字時代的社會學分析,描述了谷歌和 Facebook 等全球科技公司如何說服我們放棄隱私。收集的信息不僅用于預測我們的行為,還用于影響和修改它。不用說,這對民主和自由造成了災難性的后果。我們喜歡認為科技公司擁有的關于我們的唯一信息就是我們提供給他們的信息。真正發生的是,我們故意提供給他們的信息是他們收集的關于我們的最不重要的信息。 以不道德的方式工作的科技公司從我們在不知不覺中留下的數字痕跡中檢索到大量信息。但他們僅使用收集到的一些關于我們的數據來改善服務或用戶體驗。公司使用我們的大部分數據來分析人類行為模式,以創建預測數據模型并了解具有某些特征的人通常如何行為和思考。
在最簡單的層面上,他們可以預測您現在或以后可能會做什么,并將這些預測出售給企業。那么,這有什么問題呢?你可能會說“但我喜歡那些有針對性的廣告”或 “我沒有什么可隱瞞的,所以我不在乎他們拿什么,除此之外,他們已經知道了我的一切。” 這些陳述中的每一個都是對實際發生的事情的深刻誤解。問題的根源不是針對性的廣告或個性化的用戶體驗。在大多數情況下,算法都帶有種族和性別偏見。而且我們現在知道,預測模型還可以以繞過我們意識的方式影響離線、現實世界的情緒和行為。
用戶體驗中的道德規范
當我們說我們有道德時,我們是什么意思?一般來說,倫理學是一門廣泛的學科。在哲學意義上,它研究什么是對的,什么是錯的。應用倫理是當我們應用這些關于道德的概念和思想時。
我們可以將設計和研究倫理視為相互聯系和交織的不同學科。設計倫理著眼于使用設計并與之互動的人們的福利。它還涉及人們如何使用或濫用設計的長期影響。另一方面,研究倫理關注參與研究活動的人們的福利。
成功指標的隧道愿景
在國外“四大”——谷歌、亞馬遜、Facebook和蘋果——主導的時代,他們可以親身體驗一些公司如何偷工減料或遵循可能對人們造成真正傷害的不道德做法。
許多產品團隊都在追隨他們的腳步。在某些情況下,參與者會故意或無意地欺騙他們數據的使用目的。當團隊缺乏堅實的設計和研究倫理基礎時,通常會出現這些趨勢?;蛘?,另一種情況是設計師和研究人員必須做出專門服務于業務目標的決策。
通常作為設計師或研究人員,我們對這些不道德的決定沒有權力。即使我們想設計一個好的體驗,我們也可能無意中造成傷害。好的和令人愉快的設計的一些好處可能伴隨著不可預見的權衡。
我們可以讓用戶沉迷于我們創造的產品和服務。我們可以讓他們因為我們自己的偏見而被邊緣化,或者因為通知而變得超負荷或壓力。此外,欺凌和仇恨言論也可能是我們設計的結果。
現實情況是,在快節奏的環境中,我們通常沒有時間考慮設計倫理。在成功指標上很容易獲得隧道視野。當我們專注于設計的短期成功而不是長期視角而變得短板時。在瞬息萬變的環境中,我們可能會陷入只依賴定量數據和指標的陷阱。并且設計只是為了改進這些指標。那么,您可以做些什么來設計良好的體驗,同時確保做出合乎道德的決策呢?
探索設計師的困境
作為設計師,我們正在解決問題,讓人們的生活更輕松。但是,重要的是要了解我們的設計不是中立的,但實際上,它本質上是有偏見的。將人稱為用戶為設計師創造了一個舒適區和一個矛盾的事實。我們實際上不能關心與我們的設計互動的每一個人,但同情他們的問題是我們工作的一部分。雖然,我認為用戶這個詞本身不可避免地會造成我們應該關心的人的無知和疏離。它通過將它們減少為我們用來改進產品或服務的數字數據的痕跡,從而消除它們的復雜性。這從根本上強化了人們是最重要的利潤來源的說法。
通過承認即使是我們的設計詞匯也會影響我們的思維方式,我們可以更接近道德設計。認為我們的設計決策與我們的缺陷無關,這讓我們感覺更好,但實際上,它們永遠是我們的延伸。 為了真正通過設計改善人們的生活,我們需要提出一些棘手的問題。我們需要在他們正在創建和加強的系統中詢問他們。這不應該只是 UX 團隊的責任。這是每個人的責任,因此這些對話也需要在領導層進行。通過這種方式,我們可以避免陷入必須扭轉某些決定或花費大量時間返工的情況。
道德設計的步驟
對此進行規劃是最重要的部分——因此請嘗試提前開始對話:我們的設計如何被濫用或利用?最壞的結果是什么?哪些潛在的權衡可能會對使用我們產品或服務的人產生負面影響?提出難題將幫助您為以下開始的實際工作做好準備:
我們能用設計解決社會問題嗎?
在素馬設計機構,我們決定有意識地將我們的知識和創造力導向積極的影響。當我們重新審視我們作為一家公司的使命時,我們做出了一個集體決定,專注于通過我們的設計決策從整體上(和道德上)幫助用戶。
我們可以從中學到什么
我們已經開始質疑自己設計產品的后果,以及我們應該如何運用我們的影響力。已經出現了應用設計方法的新框架和方法,以解決復雜的社會問題,并消除不道德設計本身造成的一些問題。這種轉變有許多不同的名稱——“循環設計”、“社會設計”、“影響設計”、“社會創新設計”和“倫理設計”等等。所有這些想法都有自己的定義,但這里的措辭是不太重要的部分。正是這種可能性和空間讓我們能夠使用設計來應對社會問題。是思考和探索。它在看例子。它使事情變得有意義。它超越了當前將設計思維應用于社會問題的趨勢。它是破壞傷害人們的系統性機制,以創造替代、平等、包容和道德的未來。
我渴望并渴望成為那些“道德、有影響力、循環、社會設計師”中的一員。 我不確定如何做,但我知道我確實有選擇。因為我們比以往任何時候都更有優勢,現在輪到我們創造新的原則了。
在 素馬設計 繼續學習
通過我們關于UX 在可持續發展時代的作用的文章跟進循環設計的主題,或者閱讀通過為殘疾人設計應用程序來做好 UX 的示例。
正在尋找合適的用戶體驗機構?
網站設計機構-素馬設計已成功與全國甚至國外多家公司合作。 此刻我們能為您做些什么嗎?與我們聯系,讓我們討論您當前的挑戰。 我們的設計專家很樂意為用戶體驗策略、產品和用戶研究或用戶體驗/用戶界面設計提供幫助。