ChatGPT的未來存在三大局限性
面對ChatGPT在各個方面的出色表現,很多人開始擔心自己的職業(yè)發(fā)展。擁有如此強大能力的ChatGPT究竟能否替代搜索引擎?許多職業(yè)將因此而消失嗎?聚象科技認為我們不需要過度擔心,畢竟ChatGPT還有著不可忽視的三大局限性。ChatGPT的未來發(fā)展仍有很長的路要走。
一、內容準確性不高
ChatGPT的內容準確性不夠高并且會非常固執(zhí)地堅持錯誤的結果。這其實也是這一類大規(guī)模語言模型一直以來面臨的難題。在Instruct GPT的論文中,作者明確提到了這個模型會犯非常低級的錯誤,甚至是加減運算也有可能會出錯。比如,當你問它關于“松鼠桂魚”的做法時,它有時回答要用烤箱來烤,有時回答要用水煮,甚至會說材料需要用到松鼠。很顯然,“松鼠桂魚”這個專有名詞并不在它的學習范圍內。
二、模型邊界的模糊
一旦機器人的回復超越了倫理或者道德邊界,結果就會變得非常不可控。雖然OpenAI有意避免讓ChatGPT在回復中包含有違倫理、種族和道德要求的內容,但是用戶仍然可以輕易使用假裝的方式騙過AI。
三、內容更新不及時
這是因為訓練如此大規(guī)模的語言模型,不管在資金還是時間上,都是非常大的消耗,因此很難讓模型的訓練數據時時囊括最新資訊。例如,當問其對蘋果M2芯片的性能評價時,它明確的回復是蘋果M2還沒有發(fā)布。雖然ChatGPT會在不久的將來更新這些即時信息,但顯示出訓練數據的更新速度遠遠慢于搜索引擎。
所以ChatGPT完全取代人工還為時尚早,大家不必太過擔心。