每當我發現和/或開發出獲取信息和訪問 X 部分、破解 X 設備的方法時,都會給我留下深刻的印象,到目前為止,那些仍然讓我著迷的方法是基於CPU 風扇產生的聲音來獲取信息,以及使用透視牆等等。
這就是為什麼就我個人而言,我真的很喜歡在博客上分享此類新聞 今天我要分享的新聞是關於 的發展 一個方法 他創建了一個研究團隊 它基於檢測鍵盤上輸入的信息 分析附近智能手機記錄的或附近麥克風拾取的擊鍵聲音時,準確率達 95%。
經驗證的輸入檢測準確性 優於所有聲學分析方法 每個符號的字符 先前已知的 他們不使用語言模型。 例如,所提出的方法可用於確定輸入的密碼或鍵入的消息,在攻擊者將其智能手機放在受害者旁邊或在輸入機密信息時接收錄音的情況下(例如,當受害者在通信過程中登錄時)一些信息系統的密碼)。
隨著深度學習的最新發展、麥克風的普及以及通過個人設備提供的在線服務的興起,聲學側通道攻擊對鍵盤的威脅比以往任何時候都更大。
使用基於機器學習模型的分類器重新創建輸入,該模型考慮按下不同按鍵時的聲音特徵和音量級別。
有人提到 要進行攻擊,需要對模型進行初步訓練,這需要將輸入聲音與有關按下的按鍵的信息進行匹配。 在理想條件下,可以使用受攻擊計算機上安裝的惡意軟件來訓練該模型,從而可以同時記錄麥克風的聲音並攔截擊鍵。
在更現實的場景中,可以通過將輸入文本消息與視頻會議記錄的音頻集進行匹配來收集訓練模型所需的數據。 基於 Zoom 和 Skype 視頻會議輸入分析訓練模型時,輸入檢測準確度分別略微下降至 93% 和 91,7%。
在使用 Zoom 會議音頻訓練機器學習模型的實驗中,用不同的手指以不同的力度連續按下鍵盤上 36 個鍵(0-9、a-z)中的每一個鍵 25 次。
有關每次按下的聲音的數據被轉換成圖像 頻譜圖反映了聲音的頻率和幅度隨時間的變化
頻譜圖 轉移到基於 CoAtNet 模型的分類器進行訓練,用於人工視覺系統中的圖像分類。 也就是說,在訓練過程中,將圖像與每次擊鍵的頻譜圖以及按鍵名稱進行比較。 為了確定聲音按下的按鍵,CoAtNet 模型根據傳輸的聲譜圖返回最可能的按鍵,類似於通過圖像識別物體時返回最可能的標籤。
未來,研究人員打算探索通過記錄智能揚聲器的聲音來重新創建鍵盤輸入的可能性,並使用在整個單詞的上下文中對輸入進行分類的語言模型來提高確定輸入文本的準確性。
終於 如果您有興趣了解更多信息,您可以在中查看詳細信息 以下鏈接。