用好眼動模擬人工智能,提高用戶體驗
編輯導(dǎo)讀:眼動分析,顧名思義,就是通過圖像采集設(shè)備對用戶眼球運動的信息進行捕捉并分析,從而服務(wù)于具體的產(chǎn)品設(shè)計上。具體怎么做?本文作者從自己公眾號的案例出發(fā),對這一技術(shù)應(yīng)用展開了詳細說明,希望對大家有用。
大家有沒有聽過 眼動儀 Eye Tracker?這個東西?
就是一個可捕捉用戶眼睛在屏幕上焦點的儀器,經(jīng)常用在用戶研究中,一般長這樣:
眼動儀可以用來做用戶的眼動記錄或者熱點圖,以此來分析界面的可用性:
由于專業(yè)度較高,就連萬能的某寶都找不到。就算是在亞馬遜美國站上搜,結(jié)果也不多:
一臺幾千塊人民幣的起步價說來也沒有多貴,但是國內(nèi)很多中小型公司連用研都難得做,通常不會想到花這個錢。
在沒有眼動儀的情況下,我們在做用戶測試就必須通過人力觀察和記錄,來判斷產(chǎn)品的可用性。
用戶測試的方法,我之前有寫過一篇很詳細的文章:《7個步驟,幫助設(shè)計師做好用戶測試》
我這接下來就要介紹一項,可以替代眼動儀的神奇技術(shù):
01 眼動模擬人工智能
最近的研究發(fā)現(xiàn),眼動其實是可以用AI來模擬的。給機器提供了大量眼動數(shù)據(jù)后,算法能夠預(yù)測出一個界面會怎樣被用戶觀看。
說來神奇,但也可以理解。這個和早已被廣泛傳播的人工智能填色類似:
上圖來源:人工智能填色工具網(wǎng)站:https://petalica-paint.pixiv.dev/index_en.html
有一家叫做 AttentionInsight的公司,就把這項技術(shù)開發(fā)成了一款可以被大眾使用的產(chǎn)品。
給它一張界面圖,就能生成用戶在前 3-5 秒內(nèi)的預(yù)估眼動熱點圖。
該公司號稱對網(wǎng)站的眼動模擬可以達到90%的準確度,對于圖像更是可以達到94%準確度。這個數(shù)據(jù)是和 MIT 數(shù)據(jù)庫對比出來的。
上圖左側(cè)為真實眼動熱點圖,右側(cè)為模擬眼動熱點圖
雖然精確度比不上眼動儀,但是好在快速便宜啊:
上圖為 Attention Insight 官網(wǎng)價格表
登錄網(wǎng)站上傳界面圖片/輸入想要測試的網(wǎng)頁地址就可以使用,快的話幾秒鐘出結(jié)果,還有免費體驗版。
02 如何用眼動分析提高用戶體驗?
雖然很多人自信可以用頭腦預(yù)估用戶行為,但是在大量的方案以及復(fù)雜的現(xiàn)實情況中,人為判斷多有不準確的時候。
而眼動分析至少可以給我們提供可靠的事實依據(jù)。
例如下面這個 Omnisend 網(wǎng)站的真實案例,他們用眼動模擬AI工具生成了這樣的熱點圖:
分析發(fā)現(xiàn)了幾個問題:
- LOGO 與標題太近,且標題內(nèi)容太復(fù)雜,導(dǎo)致用戶沒有給予標題較多的關(guān)注。
- 兩個按鈕主次不明確,用戶把視線放到兩者之間,沒有聚焦
- 右側(cè)用戶大量注意力都放在沒什么意義的圖標上,毫無幫助
于是他們改了一版,再去做眼動模擬:
這次明顯要好多了:
- 標題更加清晰
- 用戶對主按鈕的關(guān)注也更加明確
- 右圖的專注焦點在人臉,至少這比無情緒的圖標來得有意義
Omnisend 拿著這兩個頁面去給真實用戶做了 A/B 測試,發(fā)現(xiàn)后者的轉(zhuǎn)化率比前者提高了30%。
找真實用戶做 A/B 測試固然是最準確的,但是成本也大。
所以為了控制成本,先拿AI模擬來低成本驗證一下,再去花力氣做實測會更加穩(wěn)妥。
03 給公眾號改版做個眼動模擬
大家都知道,公眾號改版了:
很多文章都分析了一下這次改版,有吐槽的也有贊賞的,但貌似還沒有人做過眼動分析。
所以我很好奇,如果做個眼動模擬對比,是否可以驗證這次改版究竟是進步還是倒退。
搞不好,我是全網(wǎng)第一個給公眾號改版做眼動分析的:
上圖可以看到,至少這個眼動模擬AI工具對新版本評分比較高,因為用戶視線更加聚焦。
而且新版對內(nèi)容露出更多一些,把“取消關(guān)注”縮減了,這是我個人比較贊賞的。
如果感興趣,可以自己去試試這個工具:https://www.attentioninsight.com
作者:Z Yuhan,一名前華為騰訊留英設(shè)計師,每周一早上8:20分享用戶體驗;公眾號:體驗進階。
本文由 @Z Yuhan 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議。
學(xué)到了