根據(jù)這份報告,與2023年1月至5月期間相比,2023年6月至10月期間泄露的ChatGPT憑據(jù)增加了36%,LummaC2被發(fā)現(xiàn)是最常用的數(shù)據(jù)泄露工具,此外,亞太地區(qū)的目標最為常見,其次是歐洲和中東。
此外,在此期間還開發(fā)了類似ChatGPT的工具,包括WormGPT、WolfGPT、DarkBARD和FraudGPT,這些工具通過社交攻擊和網(wǎng)絡釣魚策略被用來啟用信息竊取惡意軟件活動。
這一發(fā)展突顯了AI與敏感組織數(shù)據(jù)相關的威脅。出于工作目的,員工經(jīng)常在聊天機器人中輸入機密信息或?qū)S写a,這可能會讓壞人獲得敏感情報。
有報道稱,超過4%的員工將敏感數(shù)據(jù)輸入到AI聊天機器人中,包括商業(yè)信息、個人身份信息和源代碼,這突出了企業(yè)實施最佳實踐的必要性,包括對復制-粘貼操作的控制和AI交互的組級安全控制。
企業(yè)網(wǎng)D1net(m.r5u5c.cn):
國內(nèi)主流的to B IT門戶,同時在運營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。同時運營19個IT行業(yè)公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權利。