Movatterモバイル変換


[0]ホーム

URL:


跳去內容
維基百科
查嘢

知識表示

呢篇文係一篇好文。想知更多,請撳呢個掣。
出自維基百科,自由嘅百科全書

一個簡單嘅語義網絡;個網絡表達咗幾樣事物之間嘅關係,做到知識表示嘅效果。

知識表示粵拼zi3 sik1 biu2 si6;參見英文knowledge representation,KR)係認知科學人工智能領域當中一個受關注嘅課題[1][2],指一個認知系統-無論係人類定係人工智能-內部點樣表示有關「周圍世界點運作」嘅資訊,以及點樣用呢啲資訊對事物作出判斷同預測[3][4][5]

舉個簡單例子說明,想像家陣有一個噉樣嘅神經網絡:個網絡有兩層,每層有若干粒神經細胞,第一層表示「見到嗰樣物件嘅特徵」,而第二層表示「將件物件分做乜嘢類」,第二層每粒神經細胞會同第一層嘅某啲細胞有連繫,喺某啲特定嘅第一層細胞啟動嗰時會跟住啟動,即係話,攞第i{\displaystyle i} 粒第二層細胞:

Ci=W1A1+W2A2...{\displaystyle C_{i}=W_{1}A_{1}+W_{2}A_{2}...}
Ci{\displaystyle C_{i}} 係第二層細胞i{\displaystyle i} 嘅啟動程度,
Aj{\displaystyle A_{j}} 係第j{\displaystyle j} 粒第一層細胞嘅啟動程度,
Wj{\displaystyle W_{j}} 係第j{\displaystyle j} 粒第一層細胞對第二層細胞i{\displaystyle i} 嘅影響力,而Wj{\displaystyle W_{j}} 數值可以係 0。

假想第一層細胞每粒代表咗一個特徵,而第二層細胞每粒代表咗一個類別。當個網絡望到外界有一件具有「有毛皮」、「有」同「四隻」等特徵嘅物件嗰時,呢啲特徵相應嘅第一層細胞就會啟動,而第二層細胞當中同呢柞細胞有連繫嗰粒-例如代表「」嗰粒第二層細胞-就會跟住啟動。噉即係話,呢個網絡曉一接收到某啲特徵,就將件物件歸類做某個相應嘅類別-「貓有毛皮、有鬚、四隻腳」係一個知識,而呢個知識就係用一個神經網絡嘅方式「表示」咗出嚟[6][7]

對知識表示嘅研究相當跨學科:呢個領域會參考神經科學等領域嘅研究,尤其係有關「人腦點做知識表示」嘅研究(已知人腦曉做知識表示,問題係到底人腦係點做到嘅呢?),然後人工智能領域嘅研究者就會按呢啲知識,嘗試製作出能夠好似人噉做知識表示嘅電腦系統[8][9]

神經基礎

[編輯]
簡單嘅神經網絡圖解;一層神經細胞引致下一層神經細胞啟動,最後造成輸出。
睇埋:神經編碼

細胞

[編輯]
睇埋:神經細胞

神經細胞(neuron)可以帶有同傳遞資訊:一個由極大量嘅神經細胞組成,例如一個正常大人嘅腦據估計有成 860 億粒神經細胞咁多[10];一粒神經細胞喺接收到某啲特定嘅刺激嗰陣,會用微弱電流等嘅型式傳訊號,例如視網膜上面嗰一大柞感光細胞喺受刺激嗰時,會射訊號上個腦嘅視覺皮層(visual cortex)嗰度,而每種感光細胞都淨係會對某啲特定刺激有反應,所以每當個腦收到呢啲訊號嗰陣,就可以判斷對眼望到乜-「射緊訊號嘅得感應藍色光嘅感光細胞,對眼梗係望緊啲藍色嘅嘢喇」。神經編碼神經科學一個子領域,專門研究解讀神經細胞帶同傳嘅資訊[11][12]

網絡

[編輯]
睇埋:神經網絡

想像有個由若干粒神經細胞組成嘅神經網絡(neural network)。輸入層嗰啲細胞會對某啲外界刺激(例如係光或者)有啟動反應,隱藏層收到輸入層細胞嘅訊號嗰時會啟動,而最後嗰浸輸出層收到隱藏層細胞嘅訊號嗰時又會啟動。即係話是但搵粒細胞,佢嘅啟動程度C{\displaystyle C} 可以用以下條式計[13]

C=W1A1+W2A2...{\displaystyle C=W_{1}A_{1}+W_{2}A_{2}...}
Aj{\displaystyle A_{j}} 係粒細胞第j{\displaystyle j} 個輸入嘅數值,
Wj{\displaystyle W_{j}} 係粒細胞第j{\displaystyle j} 個輸入對粒細胞i{\displaystyle i} 嘅影響力(權重值;weight)。

而家假想輸出層有 5 粒細胞,每粒都有一個門檻值,如果嗰粒細胞個C{\displaystyle C} 超越門檻值,佢嘅數值會變成 1,否則佢嘅數值會變成 0(睇埋數碼訊號),所以喺是但一個時間點,個神經網絡嘅輸出可以用 5 個 1 同 0 嚟表達-「11000」、「10010」、「10101」等分別代表唔同款嘅輸出。如果柞Wj{\displaystyle W_{j}} 數值恆定不變,噉輸入同輸出之間會成某啲特定嘅關係,例如每次輸入層數值等如某個數,輸出都會等如「11000」。呢段關係反應咗個神經網絡對輸入同輸出嘅知識[13],假想家陣輸入層有 4 粒細胞,而個網絡柞Wj{\displaystyle W_{j}} 經已調整好,令輸入同輸出成以下關係:

輸入輸出
00 0000000
00 0100000
01 0000000
01 0100001
10 0100010
10 1000100

想像輸入係兩個用二進制表達嘅數,而輸出係一個用二進制表達嘅數,將上述數字變成十進制嘅話:

輸入輸出
0 00
0 10
1 00
1 11
2 12
2 24

呢個輸入同輸出關係表示,個神經網絡曉計(兩個輸入都喺 2 以內嘅)乘數-係一個將有關乘法嘅知識「表示」咗出嚟嘅網絡。同一道理,假想有個神經網絡,有數以百億計嘅細胞(好似係人腦)佢會識處理好複雜嘅輸入,俾好複雜嘅輸出,而且仲能夠運算好複雜嘅輸入輸出關係[14][15]。睇埋人工神經網絡

處理過程

[編輯]
睇埋:學習機械學習

普遍同複雜

[編輯]
  • 普遍化指一個智能系統對唔同嘅輸入俾同一個輸出:例如家陣有兩個唔同嘅輸入-「一隻身上有七條間條嘅老虎」同「一隻身上有八條間條嘅老虎」,而有一個人感知到;對個人嚟講,喺兩個情況下,最理想嘅輸出都係「識、走佬」,而如果有個人類見到前者識走佬,但見到後者唔識嘅話,佢好有可能生存唔到;「普遍」化指緊就係將對一個刺激x{\displaystyle x} 嘅知識應用落去第啲同x{\displaystyle x} 有啲相似(但唔完全一樣)嘅刺激嗰度-而「概念」喺定義上就係指普遍化所產生嘅知識表示,個人睇咗一柞(隻隻個樣都有啲唔同嘅)老虎之後心靈當中有咗一個「老虎」嘅概念。普遍化嘅能力對於知識系統嚟講好重要[16]
  • 複雜化指一個智能系統對唔同嘅輸入俾唔同輸出:假想頭先見親老虎都識走佬嗰個人,佢從來未見過(貓一般對人唔危險),跟住有次佢見到貓,因為貓同老虎外形上有某啲相似嘅地方,所以佢見到隻貓就驚同走佬;但打後佢對貓嘅體驗多咗,發覺貓同危險之間並冇正統計相關(貓同危險好少可一齊出現),於是佢就學識「見到老虎要走佬,但見到貓唔使」-先前會引起同一個輸出嘅刺激,變成會引起唔同輸出,呢個過程就係所謂嘅複雜化[16]。普遍化同複雜化之間嘅平衡係有智能行為嘅基礎[16]
德國狼狗(左)同哈士奇(右);一個人俾隻德國狼狗咬過,學識對德國狼狗要有「」嘅反應,如果佢將佢嘅知識普遍化到「所有嘅」,佢對哈士奇都會有驚嘅反應。

聚類分析

[編輯]
聚類分析嘅圖解;每一點代表一個個案,每個個案喺用 X 軸同 Y 軸分別代表嗰兩個變數上都各有其數值。
内文:聚類分析

聚類分析係一種常用嚟教智能系統學識做適當知識表示嘅方法[17]。假想而家有若干個個案,每個個案都係兩個變數x{\displaystyle x}y{\displaystyle y} 上有個數值,再用以下個演算法處理吓柞個案嘅數據[18]

手上有N個個案每個個案俾返個標籤某個特定嘅000011100...規律將啲個案冚唪唥攞喺C呢個聚類入面直至size(C)C入面嘅個案數量=1為止一路做將淨低嘅個案逐對逐對睇計每對個案之間嘅距離XY上差幾遠);搵出最接近嗰兩個個案設做c1c2c1c2加入c3入面c3係一個包含咗c1c2在內嘅聚類c3加入去C入面c1c2C嗰度攞走

如果個數據庫當中有 8 個個案,上述段演算法會俾類似以下噉嘅知識表示[18]

C=[[[[case_1,case_8],case_2],case_6],[[[case_3,case_4],case_5],case_7]]

假如柞個案真係有得清楚噉分做兩個聚類嘅話,噉呢個演算法嘅運算過程之中,應該臨尾會出咗兩個c3a{\displaystyle c_{3a}}c3b{\displaystyle c_{3b}},跟住c3a{\displaystyle c_{3a}}c3b{\displaystyle c_{3b}} 喺最後嗰步變成一體。聚類分析能夠攞一柞輸入,再俾「將柞個案分做若干類」嘅輸出-所以上述個演算法喺人工智能上可以用嚟模擬人類「睇過一柞物體之後,自動噉喺心目中將柞物體分類」嘅心智過程-由數據嗰度產生「見過嘅物件可以分做邊幾類」嘅知識表示,並且喺下次再撞到個案嗰時,用手上呢個知識表示判斷「呢件物件係乜」[18]

主成份分析

[編輯]
主成分分析嘅圖解;幅圖每一點代表一個個案,兩個箭咀代表兩個成份,長啲嗰個箭咀係比較重要嗰個成份。
内文:主成份分析

主成份分析(PCA)係另一種常用嚟整知識表示嘅分析法。想像而家又係有柞個案,佢哋每個喺兩個變數上都有其數值(睇附圖),跟住可以畫兩條線(附圖嗰兩個箭咀),兩條線分別都可以用一條包含x{\displaystyle x}y{\displaystyle y} 嘅算式表達,當中由圖當中可以清楚睇到,長箭咀嗰條線成功噉捕捉更多嘅變異數-亦即係話長箭咀嗰條線所代表嗰個成份(component)比較能夠用嚟分辨啲個案,所以比較「重要」[19]

舉個例說明,假想有柞新數據,啲個案係一隻隻動物,而每個個案一係就係隻老鼠,一係就係隻大笨象x{\displaystyle x} 係隻動物嘅大細,而y{\displaystyle y} 係隻動物嘅色水;假設柞數據做咗標準化,用同一樣嘅單位表達x{\displaystyle x}y{\displaystyle y},喺呢柞數據入面,沿「色水」嘅變異數好細(個箭咀會好短),因為老鼠同大笨象都係灰灰啡啡噉色嘅動物,但沿「大細」嘅變異數就會大得好交關(個箭咀會好長),因為老鼠同大笨象喺體型上差好遠-用 PCA 嘅話,會得出「用x{\displaystyle x} 作為重心線做分辨有用啲」嘅結果- PCA 幫到手由一柞數據嗰度,產生出「邊個成份喺用嚟分辨個案上比較有用」嘅資訊,而個智能系統可以用呢個資訊做一個知識表示,攞個知識嚟對將來撞到嘅個案作出判斷[18]

喺最簡單嗰種情況下,一個做主成份分析嘅演算法大致上係噉[19]

  1. 攞數據;
  2. 畫條線出嚟,條線有條式,而條式包含數據當中有嘅變數
  3. 計出沿呢條線嘅變異數有幾多;
  4. 改變吓條線嘅參數
  5. 再計出沿條新線嘅變異數有幾多;
  6. 一路做步驟 4 同 5,做嗮所有指定咗嘅可能性,最後俾具有最大變異數嗰條線做個演算法嘅輸出。

表示模型

[編輯]
語義網絡;每個空白圓圈代表一個節點,節點之間有連繫。
睇埋:黑盒

語義網絡

[編輯]
内文:語義網絡

語義網絡係知識表示常用嘅一種模型。一個基本嘅語義網絡有以下組成部份:個網絡有若干個節點(node),每個節點代表一個概念,而節點之間會有一啲連繫,兩個概念之間嘅連繫表達佢哋之間嘅關係;語義網絡可以用嚟模擬促發效應-喺是但一個時間點,每個節點都有個數代表佢嘅「啟動程度」而一個節點啟動會令佢掕住嘅節點跟住啟動,同佢連繫愈強嘅節點就會掕住啟動得愈勁;而呢點似十足人嘅促發效應-人都係噉,一講起一樣嘢嗰陣傾向諗起啲同嗰樣嘢相關嘅嘢,例如實驗就噉做過,實驗者叫受試者喺聽到個「」字嗰陣有咁快得咁快撳個掣,而喺聽「狼」打前聽到(例如)個「」字嘅受試者對「狼」嘅反應會變快[20][21]

語義網絡可以用機械學習方法產生,例如一個人工智能程式接收咗一柞動物嘅影像,用聚類分析將柞影像分做若干個物種,程式內部每個物種俾個名佢,然後再按聚類分析嘅結果(例:「貓同老虎明顯係兩種動物,但兩者彼此之間嘅差距明顯細過佢哋同狼嘅差距,所以貓同老虎都屬貓科」)產生一個語義網絡(例:貓同老虎都各有一條線「屬於」掕去「貓科」嗰度)[22][23]

貝葉斯知識

[編輯]
睇埋:貝葉斯網絡

有認知科學家主張,人同第啲動物嘅心靈係按貝葉斯定理(Bayes' theorem)學習判斷世界嘅系統。假想有兩件事件,A{\displaystyle A}B{\displaystyle B}P(A){\displaystyle P(A)}A{\displaystyle A} 發生嘅機會率P(B){\displaystyle P(B)}B{\displaystyle B} 發生嘅機會率,根據貝葉斯定理,P(A|B){\displaystyle P(A|B)}(已知B{\displaystyle B} 發生咗,A{\displaystyle A} 發生嘅機會率)可以用以下呢條式計[24][25]

P(A|B)=P(B|A)P(A)P(B){\displaystyle P(A|B)={\frac {P(B|A)\,P(A)}{P(B)}}}

舉個例說明,有一個地區,個地區嘅人當中有 0.1% 嘅都有一隻病(P(A)=0.001{\displaystyle P(A)=0.001});而家有個新測試(「測試出陽性反應」係B{\displaystyle B}),而打前嘅醫學研究顯示,如果個病人真係有嗰隻病,個測試有 90% 機會呈陽性反應(P(B|A)=0.9{\displaystyle P(B|A)=0.9}),但就算個病人冇嗰隻病(A{\displaystyle A'}),個測試都有 9% 嘅機會呈陽性反應(P(B|A)=0.09{\displaystyle P(B|A')=0.09}P(B){\displaystyle P(B)} 大約係 0.1)。家吓有個住喺呢個地區嘅人去做咗個測試,出咗陽性結果,用貝葉斯定理嚟計嘅話,佢真係有嗰種病嘅機會率(P(A|B){\displaystyle P(A|B)})大約係 10% (個測試唔多靠得住)[24]

根據主張貝葉斯腦假說嘅認知科學家,一個心靈會透過自己過去嘅經驗,計算一大柞P(A|B){\displaystyle P(A|B)} 嘅數值,以此表示自己對「世界係點運作」嘅認識,而呢個知識表示就係所謂嘅「對世界嘅內部模型[24]:想像一個心靈,佢內部會記住若干份經驗(有P(A){\displaystyle P(A)}P(B){\displaystyle P(B)} 呢啲資訊),而佢可以按過去嘅經驗計返P(A|B){\displaystyle P(A|B)}-例如係喺一個實驗裏面,研究者定時定候電隻動物,而隻動物冇能力迴避;隻動物記得 10 次俾人電嘅事件(P(A){\displaystyle P(A)}),而喺某幾次事件當中佢有嘗試避開個痛楚(B{\displaystyle B}),喺某幾次入面佢冇(B{\displaystyle B'}),但次次都一樣遭俾人電;佢個腦計咗之後會發現,自己行動咗跟住受痛楚嘅機率(A|B{\displaystyle A|B})同自己唔行動而受痛楚嘅機率(A|B{\displaystyle A|B'})相約,P(A|B)=P(A|B){\displaystyle P(A|B)=P(A|B')}-即係一個「我作唔作出行動結果都係會受痛楚」嘅知識表示,令佢進入「發現自己好無助」嘅狀態[26]

第啲模型

[編輯]

... 等等。

本體工程

[編輯]
描述相關知識嘅本體
内文:本體工程

本體工程電腦科學嘅一個子領域,研究點建造本體(ontology):定義上,一個本體係一柞概念嘅集合,會表明呢啲概念之間嘅啦掕,可以話係語義網絡嘅一種;本體嘅特徵係,佢啲概念要有明確講到出嚟嘅定義(相比之下,語義網絡可以用人工神經網絡等「計到正確答案、但講唔出口」嘅方法整)[31]。例:一個用嚟表示打機相關知識嘅本體噉,會包含「電子遊戲」、「遊戲機」同「遊戲設計」等嘅概念嘅定義,跟住仲會有一柞連結,表明概念之間嘅啦掕,例如「遊戲機」會有條拎(「用嚟玩」)連去「電子遊戲」嗰度,而「遊戲設計」又會有條拎(「做嚟整」)連落「電子遊戲」嗰度-形成一個描述打機相關概念同呢啲概念之間嘅關係嘅本體(所以本體係知識表示嘅一種)[32][33][34]

本體工程對於製作人工智能嚟講相當有用,最幫到手教電腦自動推理嘅工作-一個程式有咗一個本體,就會有能力答「貓屬於貓科,貓科屬於哺乳類,噉貓係咪屬於哺乳類?」等嘅問題,而答呢類問題嘅能力正正係智能嘅一個重要指標[3][35][36]

以下呢段係一段用網絡本體語言(Web Ontology Language;一款專用嚟整本體嘅程式語言)表達嘅一個本體,用嚟描述一啲有關意大利薄餅嘅知識[37]

Namespace(p=<http://example.com/pizzas.owl#>)Ontology(<http://example.com/pizzas.owl#>Class(p:Pizzapartialrestriction(p:hasBasesomeValuesFrom(p:PizzaBase)))DisjointClasses(p:Pizzap:PizzaBase)Class(p:NonVegetarianPizzacompleteintersectionOf(p:PizzacomplementOf(p:VegetarianPizza)))ObjectProperty(p:isIngredientOfTransitiveinverseOf(p:hasIngredient)))

舉個例子說明,呢段碼ObjectProperty 嗰行會同個程式指明個本體入面某啲物件嘅特性,呢行指令講咗幾樣嘢:首先「係某某嘅原料」(isIngredientOf)呢個關係係遞移嘅-即係教部電腦,如果 A 係 B 嘅原料而 B 係 C 嘅原料,噉佢可以推斷 A 係 C 嘅原料;呢行指令仲表明咗「係某某嘅原料」係「原料包含咗」(hasIngredient)嘅反轉(inverse)-所以運用呢個本體嘅人工智能程式可以做(例如)「夏威夷薄餅原料包含咗菠蘿,所以菠蘿係夏威夷薄餅嘅原料」嘅推理[37][38]

本體同相關技術有唔少應用價值,一個簡單嘅例子係攞嚟喺搜尋器嗰度俾建議:當一個用家搜尋某個關鍵字嗰陣,個搜尋器程式可以用一個事先學習(分析咗舊有嘅「啲人耖完呢篇文之後,傾向耖乜文」數據)形成嘅語義網絡,估計個用家跟住最有可能會想搜尋啲乜,然後將最有可能會想搜尋嘅嘢列做「建議」[39][40]

睇埋

[編輯]

文獻

[編輯]

英文文獻:

  • Ronald J. Brachman;What IS-A is and isn't. An Analysis of Taxonomic Links in Semantic Networks; IEEE Computer, 16 (10); October 1983
  • Ronald J. Brachman, Hector J.Levesque Knowledge Representation and Reasoning, Morgan Kaufmann, 2004ISBN 978-1-55860-932-7
  • Ronald J. Brachman, Hector J. Levesque (eds)Readings in Knowledge Representation, Morgan Kaufmann, 1985,ISBN 0-934613-01-X
  • Chein, M., Mugnier, M.-L. (2009),Graph-based Knowledge Representation: Computational Foundations of Conceptual Graphs, Springer, 2009,ISBN 978-1-84800-285-2.
  • Randall Davis, Howard Shrobe, and Peter Szolovits; What Is a Knowledge Representation?AI Magazine, 14(1):17-33,1993
  • Ronald Fagin, Joseph Y. Halpern, Yoram Moses, Moshe Y. VardiReasoning About Knowledge, MIT Press, 1995,ISBN 0-262-06162-7
  • Jean-Luc Hainaut, Jean-Marc Hick, Vincent Englebert, Jean Henrard, Didier Roland:Understanding Implementations of IS-A Relations. ER 1996: 42-57
  • Hermann Helbig:Knowledge Representation and the Semantics of Natural Language, Springer, Berlin, Heidelberg, New York 2006
  • Frank van Harmelen, Vladimir Lifschitz and Bruce Porter:Handbook of Knowledge Representation 2007.
  • Arthur B. Markman:Knowledge Representation Lawrence Erlbaum Associates, 1998
  • John F. Sowa:Knowledge Representation: Logical, Philosophical, and Computational Foundations. Brooks/Cole: New York, 2000
  • Adrian Walker, Michael McCord, John F. Sowa, and Walter G. Wilson:Knowledge Systems and Prolog, Second Edition, Addison-Wesley, 1990
  • Mary-Anne Williams and Hans Rott: "Frontiers in Belief Revision, Kluwer", 2001.

引咗

[編輯]
  1. Brachman, Ron (1985). "Introduction". In Ronald Brachman and Hector J. Levesque (ed.).Readings in Knowledge Representation. Morgan Kaufmann. pp. XVI–XVII.
  2. Roger Schank; Robert Abelson (1977).Scripts, Plans, Goals, and Understanding: An Inquiry Into Human Knowledge Structures. Lawrence Erlbaum Associates, Inc.
  3. 3.03.1Davis, Randall; Howard Shrobe; Peter Szolovits (Spring 1993). "What Is a Knowledge Representation?".AI Magazine. 14 (1): 17–33.
  4. Hoskins, J. C., & Himmelblau, D. M. (1988). Artificial neural network models of knowledge representation in chemical engineering.Computers & Chemical Engineering, 12(9-10), 881-890.
  5. John F. Sowa:Knowledge Representation: Logical, Philosophical, and Computational Foundations. Brooks/Cole: New York, 2000.
  6. Socher, R., Chen, D., Manning, C. D., & Ng, A. (2013). Reasoning with neural tensor networks for knowledge base completion. InAdvances in neural information processing systems (pp. 926-934).
  7. Duda, Richard O.; Hart, Peter Elliot; Stork, David G. (2001).Pattern classification (2 ed.). Wiley.
  8. Omerovic, S., MILUTINOVIC, V., & TOMAZIC, S. (2001).Concepts, Ontologies, and Knowledge Representation.
  9. Tickle, A. B., Andrews, R., Golea, M., & Diederich, J. (1998). The truth will come to light: Directions and challenges in extracting the knowledge embedded within trained artificial neural networks.IEEE Transactions on Neural Networks, 9(6), 1057-1068.
  10. How many neurons make a human brain? Billions fewer than we thought.
  11. Thorpe, S.J. (1990). "Spike arrival times: A highly efficient coding scheme for neural networks". In Eckmiller, R.; Hartmann, G.; Hauske, G.Parallel processing in neural systems and computers. North-Holland. pp. 91–94.
  12. Zhang, H.; Chen, G.; Kuang, H.; Tsien, J.Z. (Nov 2013). "Mapping and deciphering neural codes of NMDA receptor-dependent fear memory engrams in the hippocampus".PLOS ONE. 8 (11): e79454.
  13. 13.013.1Bishop, Christopher (1995).Neural networks for pattern recognition. Clarendon Press.
  14. Boger, Z., & Guterman, H. (1997, October). Knowledge extraction from artificial neural network models. In 1997 IEEE International Conference on Systems, Man, and Cybernetics.Computational Cybernetics and Simulation (Vol. 4, pp. 3030-3035). IEEE.
  15. Patterson, K., Nestor, P. J., & Rogers, T. T. (2007). Where do you know what you know? The representation of semantic knowledge in the human brain.Nature Reviews Neuroscience, 8(12), 976.
  16. 16.016.116.2McMaster, R. B., & Mc Master, R. B. (1991). Conceptual frameworks for geographical knowledge. In Map Generalization: Making Decisions for Knowledge Representation (pp. 21-39). Longman's Inc.
  17. Jordan, Michael I.; Bishop, Christopher M. (2004). "Neural Networks". In Allen B. Tucker (ed.).Computer Science Handbook, Second Edition (Section VII: Intelligent Systems). Boca Raton, Florida: Chapman & Hall/CRC Press LLC.
  18. 18.018.118.218.3Knowledge Representation in Neural Networks互聯網檔案館歸檔,歸檔日期2019年3月2號,. (PDF).
  19. 19.019.1Jolliffe, I. T. (1986).Principal Component Analysis. Springer Series in Statistics. Springer-Verlag.
  20. Allan M. Collins; Elizabeth F. Loftus (1975). "A spreading-activation theory of semantic processing".Psychological Review. 82 (6): 407–428.
  21. Jang, H. Y., & Barnett, G. A. (1994). Cultural differences in organizational communication: A semantic network analysis 1.Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique, 44(1), 31-59.
  22. Quillian, M. R. (1968).Semantic memory. Semantic information processing, 227–270.
  23. Knublauch, Holger; Oberle, Daniel; Tetlow, Phil; Wallace, Evan (2006-03-09). "A Semantic Web Primer for Object-Oriented Software Developers".W3C.
  24. 24.024.124.2The Bayesian Brain Hypothesis互聯網檔案館歸檔,歸檔日期2020年3月28號,..Towards Data Science.
  25. Delalleau, O., Contal, E., Thibodeau-Laufer, E., Ferrari, R. C., Bengio, Y., & Zhang, F. (2012). Beyond skill rating: Advanced matchmaking in ghost recon online.IEEE Transactions on Computational Intelligence and AI in Games, 4(3), 167-177.
  26. Lieder, F., Goodman, N. D., & Huys, Q. J. (2013). Learned helplessness and generalization. InProceedings of the annual meeting of the cognitive science society (Vol. 35, No. 35).
  27. Linear Regression with example互聯網檔案館歸檔,歸檔日期2020年3月27號,..Towards Data Science.
  28. Gardner, M. W., & Dorling, S. R. (1998). Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences.Atmospheric environment, 32(14-15), 2627-2636.
  29. Decision Trees in Machine Learning.Towards Data Science.
  30. Cortes, Corinna; Vapnik, Vladimir N. (1995). "Support-vector networks".Machine Learning. 20 (3): 273–297.
  31. Semantic Networks.
  32. Mizoguchi, R., & Ikeda, M. (1998). Towards ontology engineering.Journal-Japanese Society for Artificial Intelligence, 13, 9-10.
  33. Russell, Stuart J.; Norvig, Peter (2010),Artificial Intelligence: A Modern Approach (3rd ed.), Upper Saddle River, New Jersey: Prentice Hall,ISBN 0-13-604259-7, p. 437 - 439.
  34. Maedche, A., & Staab, S. (2001). Ontology learning for the semantic web.IEEE Intelligent systems, 16(2), 72-79.
  35. Hayes P,Naive physics I: Ontology for liquids. University of Essex report, 1978, Essex, UK.
  36. Hayes-Roth, Frederick; Donald Waterman; Douglas Lenat (1983).Building Expert Systems. Addison-Wesley. pp. 6–7.
  37. 37.037.1OWL Example with RDF Graph.Ontologies and Semantic Web.
  38. López, M. F., Gómez-Pérez, A., Sierra, J. P., & Sierra, A. P. (1999). Building a chemical ontology using methontology and the ontology design environment.IEEE Intelligent Systems and their applications, 14(1), 37-46.
  39. Finkelstein, L., Gabrilovich, E., Matias, Y., Rivlin, E., Solan, Z., Wolfman, G., & Ruppin, E. (2002). Placing search in context: The concept revisited.ACM Transactions on information systems, 20(1), 116-131.
  40. Berners-Lee, Tim; James Hendler; Ora Lassila (May 17, 2001). "The Semantic Web – A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities".Scientific American. 284 (5): 34–43.

[編輯]
維基同享有多媒體嘅嘢:
知識表示
人工智能AI
研究「點樣人工噉創造智能體」嘅學問
基本概念
運算方法
重要問題
AI 應用
AI 哲學
AI 史
相關領域
拉雜相關
基本概念
數學模型
迴歸
網絡基礎
網絡概念
其他模型
最佳化
學習範式
模型評估
主要應用
拉雜相關
研究認知嘅科學領域就係認知心理學
基本概念
研究方法
認 
知 
概 
念 
其他
拉雜概念
智能概念
相關領域
領域
由「https://zh-yue.wikipedia.org/w/index.php?title=知識表示&oldid=2306921」收
屬於3類
屬於6隱類:

[8]ページ先頭

©2009-2025 Movatter.jp