您的位置: 首頁 >互聯(lián)網(wǎng) >

將UX鏡頭帶入AI項目的五種方法

2022-07-16 04:12:01 編輯:林詠順 來源:
導讀 隨著AI和機器學習工具的普及和普及,各類組織的產品和工程團隊正在開發(fā)創(chuàng)新的,基于AI的產品和功能。AI特別適合模式識別,預測和預測以...

隨著AI和機器學習工具的普及和普及,各類組織的產品和工程團隊正在開發(fā)創(chuàng)新的,基于AI的產品和功能。AI特別適合模式識別,預測和預測以及用戶體驗的個性化,所有這些在處理數(shù)據(jù)的組織中都是常見的。

應用AI的先驅是數(shù)據(jù)-很多數(shù)據(jù)!通常需要大數(shù)據(jù)集來訓練AI模型,任何擁有大數(shù)據(jù)集的組織無疑都將面臨AI可以幫助解決的挑戰(zhàn)?;蛘撸绻麛?shù)據(jù)集尚不存在,則數(shù)據(jù)收集可能是AI產品開發(fā)的“第一階段”。

無論您打算使用什么數(shù)據(jù)集,人們都很有可能參與了該數(shù)據(jù)的捕獲或將以某種方式使用您的AI功能。用戶體驗設計和數(shù)據(jù)可視化的原則應該是數(shù)據(jù)捕獲和/或向用戶呈現(xiàn)數(shù)據(jù)時的早期考慮因素。

1.盡早考慮用戶體驗

了解用戶在模型開發(fā)開始時將如何與您的AI產品互動,可以幫助您在AI項目上設置有用的護欄,并確保團隊專注于共同的最終目標。

例如,如果我們采用電影流媒體服務的“為您推薦”部分,則在開始數(shù)據(jù)分析之前概述用戶在此功能中將看到的內容將使團隊僅專注于可增加價值的模型輸出。因此,如果您的用戶研究確定電影的標題,圖像,演員和片長將是有價值的信息,供用戶在推薦中看到,則工程團隊在決定應訓練哪些數(shù)據(jù)集時將具有重要的背景。演員和電影長度數(shù)據(jù)似乎是確保推薦準確的關鍵。

用戶體驗可以分為三個部分:

之前-用戶想要實現(xiàn)什么?用戶如何獲得這種體驗?他們去哪里?他們應該期待什么?

在此期間-他們應該如何定位自己?清楚下一步該怎么做嗎?如何引導他們克服錯誤?

之后-用戶是否實現(xiàn)了目標?體驗是否有明確的“終點”?后續(xù)步驟(如果有)是什么?

知道用戶在與模型進行交互之前,之中和之后應該看到的內容,將確保工程團隊從一開始就對AI模型進行準確數(shù)據(jù)的培訓,并提供對用戶最有用的輸出。

2.對使用數(shù)據(jù)的方式保持透明

您的用戶是否會知道您從他們那里收集的數(shù)據(jù)正在發(fā)生什么,以及為什么需要它?您的用戶是否需要閱讀條款和條件頁面以獲取提示?考慮將基本原理添加到產品本身中。一個簡單的“這些數(shù)據(jù)將使我們推薦更好的內容”可以消除用戶體驗中的摩擦點,并為體驗增加一層透明度。

當用戶在The Trevor Project尋求輔導員的支持時,我們明確表示,在將他們與輔導員聯(lián)系之前,我們所需要的信息將用于為他們提供更好的支持。

如果您的模型將輸出呈現(xiàn)給用戶,請進一步講解模型是如何得出結論的。Google的“為什么這則廣告?” 選項可讓您深入了解推動搜索結果的因素。它還使您可以完全禁用廣告?zhèn)€性化,從而允許用戶控制如何使用其個人信息。解釋模型的工作方式或其準確性水平可以增加對用戶群的信任,并使用戶能夠自行決定是否參與結果。低準確性級??別也可以用作提示,以從用戶那里收集其他見解,以改進您的模型。

3.收集用戶對模型性能的見解

提示用戶提供有關其使用體驗的反饋,使產品團隊可以不斷改進用戶體驗。在考慮反饋收集時,請考慮AI工程團隊如何從持續(xù)的用戶反饋中受益。有時人類可以發(fā)現(xiàn)AI不會發(fā)現(xiàn)的明顯錯誤,并且您的用戶群完全由人類組成!

收集用戶反饋的一個示例是Google識別電子郵件為危險郵件,但允許用戶使用自己的邏輯將電子郵件標記為“安全”。這種正在進行的手動用戶校正使模型可以隨著時間的推移不斷學習危險消息的外觀。

如果您的用戶群也具有上下文知識來解釋AI錯誤的原因,那么此上下文對于改進模型可能至關重要。如果用戶在AI返回的結果中發(fā)現(xiàn)異常,請考慮如何為用戶提供一種輕松報告異常的方法。您可以問用戶哪些問題來征詢工程團隊的關鍵見解,并提供有用的信號來改進模型?工程團隊和UX設計人員可以在模型開發(fā)期間一起工作,以盡早計劃反饋的收集,并為持續(xù)進行的迭代改進建立模型。

4.收集用戶數(shù)據(jù)時評估可訪問性

可訪問性問題導致數(shù)據(jù)收集偏斜,并且在排他性數(shù)據(jù)集上受過訓練的AI可能會產生AI偏差。例如,在大多數(shù)由男性面孔組成的數(shù)據(jù)集上進行訓練的面部識別算法,對于非或男性而言,其效果都會很差。對于直接支持LGBTQ青年的組織如Trevor項目,考慮性取向和性別認同非常重要。從外部查找包容性數(shù)據(jù)集與確保您帶到表或打算收集的數(shù)據(jù)具有包容性一樣重要。

在收集用戶數(shù)據(jù)時,請考慮用戶將利用的平臺與您的AI進行交互,以及如何使它更易于訪問。如果您的平臺需要付款,不符合可訪問性準則或具有特別笨拙的用戶體驗,則您將收到那些無法負擔訂閱,具有可訪問性需求或對技術的了解較少的用戶的信號。

每個產品負責人和AI工程師都有能力確保社會中邊緣化和代表性不足的群體可以訪問他們正在構建的產品。了解您不知不覺中將您排除在數(shù)據(jù)集中之外的人是構建更具包容性的AI產品的第一步。

5.考慮在模型開發(fā)開始時如何衡量公平性

公平與確保您的培訓數(shù)據(jù)具有包容性息息相關。衡量模型的公平性要求您了解模型在某些使用情況下可能會不太公平。對于使用人員數(shù)據(jù)的模型,查看模型在不同人口統(tǒng)計方面的表現(xiàn)可能是一個不錯的開始。但是,如果您的數(shù)據(jù)集不包含人口統(tǒng)計信息,則這種類型的公平性分析可能是不可能的。

在設計模型時,請考慮數(shù)據(jù)如何使輸出偏斜,或如何使某些人受益。確保您用于訓練的數(shù)據(jù)集以及從用戶那里收集的數(shù)據(jù)足夠豐富,可以衡量公平性??紤]如何在常規(guī)模型維護中監(jiān)視公平性。設置公平性閾值,并制定一個計劃,以解決模型隨著時間的推移變得不太公平時如何調整或重新訓練模型。

作為新手或經驗豐富的技術人員,開發(fā)基于AI的工具,考慮您的工具如何受到用戶的影響以及對用戶的影響永遠不會太早或太晚。人工智能技術有潛力大規(guī)模地吸引數(shù)百萬用戶,并可以應用于高風險的用例。全面考慮用戶體驗(包括AI輸出將如何影響人們)不僅是最佳實踐,而且在道德上也必不可少。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。