在沉淀累積階段(1990s~2010s)AIGC逐漸從實(shí)驗(yàn)性轉(zhuǎn)向?qū)嵱眯裕?006年深度學(xué)習(xí)算法取得進(jìn)展,同時GPU和CPU等算力設(shè)備日益精進(jìn),互聯(lián)網(wǎng)快速發(fā)展,為各類人工智能算法提供了海量數(shù)據(jù)進(jìn)行訓(xùn)練。2007年出版了首部由AIGC創(chuàng)作的小說《在路上》(ITheRoad),2012年微軟展示了全自動同聲傳譯系統(tǒng),主要基于深度神經(jīng)網(wǎng)絡(luò)(DNN),自動將英文講話內(nèi)容通過語音識別等技術(shù)生成中文。在快速發(fā)展階段(2010s~至今)2014年深度學(xué)習(xí)算法“生成式對抗網(wǎng)絡(luò)”(GenerativeAdversarialNetwork,GAN)推出并迭代更新,助力AIGC新發(fā)展。2017年微軟人工智能少年“小冰”推出世界首部由人工智能寫作的詩集《陽光失了玻璃窗》,2018年NVIDIA(英偉達(dá))發(fā)布StyleGAN模型可自動生成圖片,2019年DeepMind發(fā)布DVD-GAN模型可生成連續(xù)視頻。2021年OpenAI推出DALL-E并更新迭代版本DALL-E-2,主要用于文本、圖像的交互生成內(nèi)容。2023年AIGC入世元年而2023年更像是AIGC入世元年,AIGC相關(guān)的話題爆破式的出現(xiàn)在了朋友圈、微博、抖音等社交媒體,正式被大眾所關(guān)注。 1955年末,NEWELL和SIMON做了一個名為"邏輯行家"(LOGIC THEORIST)的程序.漳州谷歌AIGC趨勢
AIGC的產(chǎn)品形態(tài)有哪些?1、基礎(chǔ)層(模型服務(wù))基礎(chǔ)層為采用預(yù)訓(xùn)練大模型搭建的基礎(chǔ)設(shè)施。由于開發(fā)預(yù)訓(xùn)練大模型技術(shù)門檻高、投入成本高,因此,該層主要由少數(shù)頭部企業(yè)或研發(fā)機(jī)構(gòu)主導(dǎo)。如谷歌、微軟、Meta、OpenAI、DeepMind、?;A(chǔ)層的產(chǎn)品形態(tài)主要包括兩種:一種為通過受控的api接口收取調(diào)用費(fèi);另一種為基于基礎(chǔ)設(shè)施開發(fā)專業(yè)的軟件平臺收取費(fèi)用。2、中間層(2B)該層與基礎(chǔ)層的特別主要區(qū)別在于,中間層不具備開發(fā)大模型的能力,但是可基于開源大模型等開源技術(shù)進(jìn)行改進(jìn)、抽取或模型二次開發(fā)。該層為在大模型的基礎(chǔ)上開發(fā)的場景化、垂直化、定制化的應(yīng)用模型或工具。在AIGC的應(yīng)用場景中基于大模型抽取出個性化、定制化的應(yīng)用模型或工具滿足行業(yè)需求。如基于開源的StableDiffusion大模型所開發(fā)的二次元風(fēng)格圖像生成器,滿足特定行業(yè)場景需求。中間層的產(chǎn)品形態(tài)、商業(yè)模式與基礎(chǔ)層保持一致,分別為接口調(diào)用費(fèi)與平臺軟件費(fèi)。3、應(yīng)用層(2C)應(yīng)用層主要基于基礎(chǔ)層與中間層開發(fā),面向C端的場景化工具或軟件產(chǎn)品。應(yīng)用層更加關(guān)注用戶的需求,將AIGC技術(shù)切實(shí)融入用戶需求,實(shí)現(xiàn)不同形態(tài)、不同功能的產(chǎn)品落地??梢酝ㄟ^網(wǎng)頁、小程序、群聊、app等不同的載體呈現(xiàn)。龍巖bilibiliAIGC運(yùn)營總之,80年代AI被引入了市場,并顯示出實(shí)用價值.可以確信,它將是通向21世紀(jì)之匙。
實(shí)現(xiàn)方法人工智能在計算機(jī)上實(shí)現(xiàn)時有2種不同的方式。一種是采用傳統(tǒng)的編程技術(shù),使系統(tǒng)呈現(xiàn)智能的效果,而不考慮所用方法是否與人或動物機(jī)體所用的方法相同。這種方法叫工程學(xué)方法,它已在一些領(lǐng)域內(nèi)作出了成果,如文字識別、電腦下棋等。另一種是模擬,它不僅要看效果,還要求實(shí)現(xiàn)方法也和人類或生物機(jī)體所用的方法相同或相類似。遺傳算法(GENERICALGORITHM,簡稱GA)和人工神經(jīng)網(wǎng)絡(luò)(ARTIFICIALNEURALNETWORK,簡稱ANN)均屬后一類型。遺傳算法模擬人類或生物的遺傳-進(jìn)化機(jī)制,人工神經(jīng)網(wǎng)絡(luò)則是模擬人類或動物大腦中神經(jīng)細(xì)胞的活動方式。為了得到相同智能效果,兩種方式通常都可使用。采用前一種方法,需要人工詳細(xì)規(guī)定程序邏輯,如果游戲簡單,還是方便的。如果游戲復(fù)雜,角色數(shù)量和活動空間增加,相應(yīng)的邏輯就會很復(fù)雜(按指數(shù)式增長),人工編程就非常繁瑣,容易出錯。而一旦出錯,就必須修改原程序,重新編譯、調(diào)試,結(jié)尾為用戶提供一個新的版本或提供一個新補(bǔ)丁,非常麻煩。
這是智能化研究者夢寐以求的東西。2013年,帝金數(shù)據(jù)普數(shù)中心數(shù)據(jù)研究員WANG開發(fā)了一種新的數(shù)據(jù)分析方法,該方法導(dǎo)出了研究函數(shù)性質(zhì)的新方法。作者發(fā)現(xiàn),新數(shù)據(jù)分析方法給計算機(jī)學(xué)會“創(chuàng)造”提供了一種方法。本質(zhì)上,這種方法為人的“創(chuàng)造力”的模式化提供了一種相當(dāng)有效的途徑。這種途徑是數(shù)學(xué)賦予的,是普通人無法擁有但計算機(jī)可以擁有的“能力”。從此,計算機(jī)不僅精于算,還會因精于算而精于創(chuàng)造。計算機(jī)學(xué)家們應(yīng)該斬釘截鐵地剝奪“精于創(chuàng)造”的計算機(jī)過于的操作能力,否則計算機(jī)真的有一天會“反捕”人類。當(dāng)回頭審視新方法的推演過程和數(shù)學(xué)的時候,作者拓展了對思維和數(shù)學(xué)的認(rèn)識。數(shù)學(xué)簡潔,清晰,可靠性、模式化強(qiáng)。在數(shù)學(xué)的發(fā)展史上,處處閃耀著數(shù)學(xué)大師們創(chuàng)造力的光輝。這些創(chuàng)造力以各種數(shù)學(xué)定理或結(jié)論的方式呈現(xiàn)出來,而數(shù)學(xué)定理的特點(diǎn)就是:建立在一些基本的概念和公理上,以模式化的語言方式表達(dá)出來的包含豐富信息的邏輯結(jié)構(gòu)。應(yīng)該說,數(shù)學(xué)是單純、直白地反映著(至少一類)創(chuàng)造力模式的學(xué)科。 意識和環(huán)境是困擾研究的兩大難題。我們到底應(yīng)該怎樣去制造智能機(jī)器呢?
應(yīng)用:在擴(kuò)散模型(diffusionmodel)的基礎(chǔ)上產(chǎn)生了多種令人印象深刻的應(yīng)用,比如:圖像超分、圖像上色、文本生成圖片、全景圖像生成等。如下圖,中間圖像作為輸入,基于擴(kuò)散模型,生成左右視角兩張圖,輸入圖像與生成圖像共同拼接程一張全景圖像。生成全景圖像產(chǎn)品與模型:在擴(kuò)散模型的基礎(chǔ)上,各公司與研究機(jī)構(gòu)開發(fā)出的代替產(chǎn)品如下:DALL-E2(OpenAI文本生成圖像,圖像生成圖像)DALL-E2由美國OpenAI公司在2022年4月發(fā)布,并在2022年9月28日,在OpenAI網(wǎng)站向公眾開放,提供數(shù)量有限的無償圖像和額外的購買圖像服務(wù)。Imagen(GoogleResearch文本生成圖像)Imagen是2022年5月谷歌發(fā)布的文本到圖像的擴(kuò)散模型,該模型目前不對外開放。用戶可通過輸入描述性文本,生成圖文匹配的圖像。StableDiffusion(StabilityAI文本生成圖像,代碼與模型開源)2022年8月,StabilityAI發(fā)布了StableDiffusion,這是一種類似于DALL-E2與Imagen的開源Diffusion模型,代碼與模型權(quán)重均向公眾開放。(4)Transformer2017年由谷歌提出,采用注意力機(jī)制(attention)對輸入數(shù)據(jù)重要性的不同而分配不同權(quán)重,其并行化處理的優(yōu)勢能夠使其在更大的數(shù)據(jù)集訓(xùn)練,加速了GPT等預(yù)訓(xùn)練大模型的發(fā)展。 從圖靈影響深遠(yuǎn)的奠基性研究到機(jī)器人和新人工智能的飛躍。漳州谷歌AIGC趨勢
1957年一個新程序,"通用解題機(jī)"(GPS)的旗艦個版本進(jìn)行了測試.這個程序是由制作"邏輯行家" 同一個組開發(fā)。漳州谷歌AIGC趨勢
采用后一種方法時,編程者要為每一角色設(shè)計一個智能系統(tǒng)(一個模塊)來進(jìn)行控制,這個智能系統(tǒng)(模塊)開始什么也不懂,就像初生嬰兒那樣,但它能夠?qū)W習(xí),能漸漸地適應(yīng)環(huán)境,應(yīng)付各種復(fù)雜情況。這種系統(tǒng)開始也常犯錯誤,但它能吸取教訓(xùn),下一次運(yùn)行時就可能改正,至少不會永遠(yuǎn)錯下去,用不到發(fā)布新版本或打補(bǔ)丁。利用這種方法來實(shí)現(xiàn)人工智能,要求編程者具有生物學(xué)的思考方法,入門難度大一點(diǎn)。但一旦入了門,就可得到廣泛應(yīng)用。由于這種方法編程時無須對角色的活動規(guī)律做詳細(xì)規(guī)定,應(yīng)用于復(fù)雜問題,通常會比前一種方法更省力。與人類差距2023年,中國科學(xué)院自動化研究所(中科院自動化所)團(tuán)隊(duì)嶄新完成的一項(xiàng)研究發(fā)現(xiàn),基于人工智能的神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)模型對幻覺輪廓“視而不見”,人類與人工智能的“角逐”在幻覺認(rèn)知上“扳回一局”。 漳州谷歌AIGC趨勢