安全使用GenAI模型進(jìn)行軟件開發(fā)的步驟

責(zé)任編輯:cres

作者:Dzmitry Lushchyk

2024-02-23 11:12:00

來源:企業(yè)網(wǎng)D1Net

原創(chuàng)

本文將深入探討如何構(gòu)建一個在軟件開發(fā)中使用ChatGPT和類似的GenAI的環(huán)境,該環(huán)境對所有參與者都是安全和有益的。

如果你是一家大型公司,最近的AI熱潮并沒有逃脫你的注意,今天,AI正在協(xié)助完成大量與開發(fā)和數(shù)字相關(guān)的任務(wù),從內(nèi)容生成到自動化和分析。
 
AI的發(fā)展很快,隨著它在很大程度上是一個未經(jīng)探索的領(lǐng)域,倫理、經(jīng)濟(jì)、社會和法律問題也浮出水面。在關(guān)于AI增強(qiáng)內(nèi)容的知識產(chǎn)權(quán)以及AI是否能夠在短期內(nèi)完全取代人類勞動力(并導(dǎo)致大規(guī)模裁員)的激烈討論中,企業(yè)希望利用GenAI提供的優(yōu)勢,同時又是安全的。
 
正視風(fēng)險,破除神話
 
AI的相對新穎性和爆炸性擴(kuò)散造成了大量的誤解和信息混亂,讓我們來看看與ChatGPT相關(guān)的一些常見風(fēng)險和流傳的神話,看看如何應(yīng)對或減輕它們。
 
1.AI的發(fā)展速度快于政府對其的監(jiān)管
 
在區(qū)塊鏈和加密貨幣方面,我們以前就看到過這種情況。AI的發(fā)展進(jìn)程很快,而法律程序和監(jiān)管程序卻滯后,這造成了一個很難導(dǎo)航的大灰色地帶:大量空白,幾乎沒有先例,這可能會導(dǎo)致企業(yè)采用不安全或不道德的方式使用ChatGPT,甚至在未來被認(rèn)為是非法的。
 
要解決此問題,你可以創(chuàng)建與在企業(yè)中使用ChatGPT有關(guān)的明確行為準(zhǔn)則,并強(qiáng)制要求員工熟悉它。
 
這段代碼應(yīng)該盡可能多地涵蓋使用GenAI的各個方面,例如,它應(yīng)該包括你的企業(yè)中允許使用ChatGPT的任務(wù)類型,以及所需的訪問類型。由于該領(lǐng)域有許多空白,最好與值得信賴的專家合作,或者將GenAI實踐的創(chuàng)建和實現(xiàn)外包給具有該領(lǐng)域?qū)I(yè)知識的人。
 
2.關(guān)于知識產(chǎn)權(quán)、過度分享和隱私風(fēng)險的辯論
 
有很多已知的案例,人們試圖用敏感或私人數(shù)據(jù)訓(xùn)練AI,或者將其用作分析的輸入。對于這些數(shù)據(jù)是否對企業(yè)外部的人可用,仍存在很大爭議,另一場激烈的辯論是,如何為使用ChatGPT的任何產(chǎn)品賦予知識產(chǎn)權(quán)。請記住,如果員工使用他們的個人帳戶使用ChatGPT,結(jié)果將是他們的知識產(chǎn)權(quán),而不是你公司的知識產(chǎn)權(quán)。
 
這就是為什么在你的AI相關(guān)政策中引入并遵守處理敏感、隱私或受版權(quán)保護(hù)的信息的規(guī)則非常重要。
 
3.AI發(fā)展的不可預(yù)測性
 
這是風(fēng)險和大量投機(jī)的另一個因素。AI在很大程度上仍然是一個空白紙,盡管技術(shù)奇點不太可能在短期內(nèi)成為現(xiàn)實,但仍然重要的是要記住,AI的未來非常不可預(yù)測。正因為如此,很難知道我們是否能夠?qū)I及其未來的發(fā)展施加同樣多的控制,另一件很難預(yù)測的事情是,我們的工作可能會變得對AI有多大的依賴,這也是一個很大的風(fēng)險因素。
 
我們可以通過創(chuàng)建和實現(xiàn)靈活、敏捷的ChatGPT工作流來降低這種風(fēng)險,這樣的工作流程應(yīng)該容易擴(kuò)展,并具有很強(qiáng)的適應(yīng)發(fā)展和法規(guī)變化的能力。
 
4.AI最終將取代人類勞動
 
這在很大程度上仍然是陰謀論領(lǐng)域,但即使是現(xiàn)在,我們也看到有多少工作可以在AI的幫助下實現(xiàn)自動化,這一神話很容易被任何試圖使用AI來執(zhí)行更復(fù)雜任務(wù)的人打破。如今,AI輸出的質(zhì)量在很大程度上取決于輸入的質(zhì)量和精度,但要編寫連貫、有用的提示,生成準(zhǔn)確和可用的結(jié)果,操作員通常需要至少接受過一些使用AI的基本培訓(xùn),而且總是需要領(lǐng)域知識。
 
一方面,快速工程和領(lǐng)域知識的經(jīng)驗與AI輸出質(zhì)量之間的關(guān)系是直接的,這意味著,要有效地使用AI,需要高效和合格的工作人員。
 
繞過這個倫理敏感話題的一種方法是,通過增加精確度、覆蓋率、承擔(dān)平凡和重復(fù)性的任務(wù)以及消除由于人為因素而發(fā)生的錯誤,推動與ChatGPT相關(guān)的工作更多地走向自動化,并增強(qiáng)人工工作。
 
5.AI相關(guān)流程和文檔的復(fù)雜性
 
由于AI仍是未知領(lǐng)域,大多數(shù)企業(yè)在設(shè)法建立清晰且有效的AI工作流程、記錄面向ChatGPT的任務(wù)的協(xié)議之前,仍需走試錯之路。積累的知識匱乏,讓企業(yè)盲目導(dǎo)航。這可能會導(dǎo)致代價高昂的錯誤、效率損失以及時間和資源的浪費。
 
解決這一問題的最佳解決方案是將AI流程和文檔的實施委托給專家,聘請可靠的內(nèi)部員工或?qū)⑦@些任務(wù)外包給專業(yè)人員。
 
為在軟件開發(fā)中使用GenAI構(gòu)建安全環(huán)境的最佳實踐和步驟
 
實施AI工作的流程應(yīng)該仔細(xì)進(jìn)行,并牢記這樣的解決方案需要量身定做,并考慮許多與業(yè)務(wù)和領(lǐng)域相關(guān)的細(xì)節(jié)和上下文,以下是一些最佳實踐,它們將幫助你駕馭這片渾濁的水域。
 
1.關(guān)注用戶同意、數(shù)據(jù)隱私、安全和合規(guī)
 
了解你所在地區(qū)已經(jīng)針對AI制定了哪些法規(guī),并密切監(jiān)控政府流程,為即將到來的立法行動做好準(zhǔn)備。如果你的產(chǎn)品以基于AI的服務(wù)為特色,請確保用戶充分了解這一事實,知道收集了哪些數(shù)據(jù),并在使用你的產(chǎn)品之前征得他們的同意。對于開發(fā)過程,避免使用敏感、私有或受版權(quán)保護(hù)的數(shù)據(jù)來訓(xùn)練AI或生成輸出。
 
2. 人機(jī)回環(huán)實踐
 
人機(jī)回環(huán)是一套設(shè)計和操作實踐,其中人的判斷被集成到AI驅(qū)動的系統(tǒng)和流程中,這種方法限制了任何AI的潛在自主權(quán),并給了你更多的控制和監(jiān)督,特別是在關(guān)鍵的決策點。在AI的決定可能具有突出的倫理、法律或個人影響的情況下,這一概念是必不可少的。
 
3.負(fù)責(zé)任的披露和部署
 
如果你看到與AI相關(guān)的工作把你引向了錯誤的方向,你應(yīng)該隨時準(zhǔn)備放棄它,被確定為構(gòu)成風(fēng)險的潛在有害的ChatGPT結(jié)果和經(jīng)過訓(xùn)練的AI模型應(yīng)該被丟棄并關(guān)閉,可能不會對你的其他進(jìn)程造成太大破壞。
 
4.透明文檔
 
如果你希望企業(yè)中的每個人都對你使用AI的立場達(dá)成一致,那么使用AI的清晰透明的協(xié)議、統(tǒng)一的程序、在術(shù)語和關(guān)鍵點上沒有任何模棱兩可和雙重含義是至關(guān)重要的,它還有助于快速讓員工上崗,并大規(guī)模引入AI實踐。
 
5.界定和限制AI參與的范圍
 
AI的確切參與范圍應(yīng)該從項目開始就定義,這應(yīng)該記錄在有關(guān)使用ChatGPT的必要文檔中,你需要向所有員工提供這些文檔。允許使用AI的任務(wù)應(yīng)明確規(guī)定,禁止使用AI的任務(wù)也應(yīng)明確規(guī)定。
 
6.參與AI社區(qū),提高AI意識和識字能力
 
如上所述,缺乏積累的知識庫是軟件開發(fā)中阻礙ChatGPT相關(guān)工作的因素之一。為AI社區(qū)做出貢獻(xiàn),交換想法,分享經(jīng)驗,對你的企業(yè)和社區(qū)本身都是有利可圖的。對你的員工進(jìn)行AI開發(fā)方面的教育并提高對與其相關(guān)的各種問題的認(rèn)識也成為必要。
 
7.透明度和問責(zé)制
 
雖然這是一種更通用的最佳實踐,對任何軟件開發(fā)過程都有好處,但它對于AI增強(qiáng)的任務(wù)尤其重要,因為這個領(lǐng)域仍然是一個灰色地帶。你應(yīng)該明確誰對什么負(fù)責(zé),每個參與ChatGPT工作的員工都應(yīng)該知道自己的個人責(zé)任,誰是各種具體任務(wù)或問題的負(fù)責(zé)人。
 
8.持續(xù)監(jiān)測
 
與任何快速發(fā)展的領(lǐng)域一樣,持續(xù)的反饋及其納入周期、對ChatGPT生成的輸出的監(jiān)控、對與AI相關(guān)的工作流程、法規(guī)和外地發(fā)展的審查有助于你改進(jìn)你的流程并使其盡可能高效,它還將幫助你避免與ChatGPT和其他GenAI相關(guān)的許多陷阱。
 
結(jié)論
 
對于任何數(shù)字企業(yè)來說,駕馭復(fù)雜且快速演變的生成性AI圖景既帶來了前所未有的機(jī)遇,也帶來了重大挑戰(zhàn)。
 
通過解決與ChatGPT和類似技術(shù)相關(guān)的倫理、法律和實踐問題,并實施最佳實踐框架,企業(yè)級公司可以安全有效地利用GenAI的力量,這種方法不僅可以幫助建立一個故障安全的環(huán)境,還可以確保AI驅(qū)動的創(chuàng)新增強(qiáng)而不是取代人類的專業(yè)知識,從而產(chǎn)生更健壯、更高效和更有道德責(zé)任感的軟件開發(fā)過程。
 
企業(yè)網(wǎng)D1net(m.r5u5c.cn):
 
國內(nèi)主流的to B IT門戶,同時在運營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。同時運營19個IT行業(yè)公眾號(微信搜索D1net即可關(guān)注)。
 
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需在文章開頭注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號