能不能把ChatGPT輸出的內(nèi)容在專業(yè)論壇上分享?
現(xiàn)在關(guān)注ChatGPT的同學(xué)非常多,我結(jié)合ChatGPT背后的人工智能技術(shù)來說說個(gè)人看法。
首先,把ChatGPT所輸出的內(nèi)容放在行業(yè)領(lǐng)域的專業(yè)人士面前,不能說是對專業(yè)人士的侮辱,至少是不夠尊重,并不是說ChatGPT不具備專業(yè)屬性,而是作為一款工具,ChatGPT所要解決的問題并不是創(chuàng)新和分享,更不是制造話題和麻煩。
實(shí)際上基于AI的問答系統(tǒng)已經(jīng)有了一段時(shí)間的發(fā)展歷史,先不說ChatGPT自身的多次迭代,很多計(jì)算機(jī)專業(yè)的同學(xué)在讀研期間就在主攻智慧問答方向,而且很多智慧問答產(chǎn)品已經(jīng)在行業(yè)領(lǐng)域?qū)崿F(xiàn)了落地應(yīng)用。
目前智慧問答所采用的技術(shù)方案主要是大規(guī)模訓(xùn)練模型,雖然大模型現(xiàn)在已經(jīng)在很多領(lǐng)域取得了令人矚目的成績,而且大模型自身還有巨大的創(chuàng)新潛力,但是目前的大模型方案還是存在很多問題的,其中可解釋性就是一個(gè)非常突出的問題。
機(jī)器學(xué)習(xí)的定義是在一堆雜亂無章的數(shù)據(jù)當(dāng)中找到其背后的“關(guān)系”,這個(gè)關(guān)系在大數(shù)據(jù)時(shí)代就理解成了相關(guān)性,但是相關(guān)性不一定等同于因果性,如果把相關(guān)性等同于因果性,那么很有可能會導(dǎo)致災(zāi)難性的后果,因?yàn)橄嚓P(guān)性有的時(shí)候是錯(cuò)誤的。
在大數(shù)據(jù)時(shí)代,荒誕的相關(guān)性案例已經(jīng)很多了,比如世界上不吃豬肉的人,自曝的概率更大,比如人受教育的程度與腳的大小成正比,再比如天平座、天蝎座、處女座的人更容易違章等等。
我相信,隨著越來越多的人在使用ChatGPT,大概率ChatGPT會輸出很多讓人啼笑皆非的內(nèi)容,實(shí)際上這正在發(fā)生,當(dāng)然我并不是在否定ChatGPT,而是希望ChatGPT能夠走得更遠(yuǎn),能夠全面推動AI技術(shù)實(shí)現(xiàn)落地應(yīng)用,前提是大家要把握住使用的邊界,這不僅是對自己負(fù)責(zé),也是對他人負(fù)責(zé)。
最后,如果有人工智能相關(guān)的問題,歡迎與我交流。