Yahoo奇摩 網頁搜尋

搜尋結果

  1. 學生 t 測試hok6 saang1 ti1 caak1 si5 ( 英文 : Student's t-test ),簡稱 t 測試 ,係 統計學 上常用嘅一種 分析 方法 [1] ,通常畀人攞嚟睇吓兩個組之間喺某一個 變數 上係咪有明顯嘅差異嘅,例如係比較兩個地區嘅人嘅身高或者係比較兩個 農場 嘅 牛 有冇話邊面嗰啲 ...

  2. 統計學(粵拼 英文: statistics )係數嘅一個子領域 [1] [2],專門研究點樣喺各個科學領域當中搜集、分析、演繹同埋呈現數據。喺用統計方法嚟研究啲乜嗰陣,個科學家會跟以下噉嘅步驟:首先講明佢研究緊乜嘢變數;跟手就搵個特定嘅總體(指一柞有某啲共通點所以俾人擺埋一齊研究嘅個體)嚟 ...

    • 基本假設
    • 統計模型
    • 線性迴歸分析
    • 攞到模型之後
    • 人工智能

    迴歸分析做咗以下嘅假設: 1. 個樣本能夠代表所研究緊嘅總體; 2. 啲受試者彼此之間係統計上獨立嘅[註 1]; 3. 誤差值 e {\\displaystyle e} 係一個隨機嘅變數,平均值係 0; 4. 量度IV 嘅過程當中並冇誤差; 5. IV 之間線性獨立[英 2],即係話並冇任何一個 IV 等如第啲 IV 嘅線性組合[英 3]; 6. 誤差值之間並冇任何嘅相關; 7. 對唔同個案嘅觀察當中嘅誤差值嘅變異數係一樣嘅(即係所謂嘅等分散[英 4])。 只要手頭上嘅數據達到呢啲假設,迴歸分析所俾嘅參數值估計就會係有效率同冇偏見嘅。但係喺現實世界當中,得到嘅數據好少可能夠達到嗮呢啲假設,所以啲研究者好多時就算手上嘅數據唔完全達到嗮呢啲假設,都照樣用迴歸分析做估計;而當啲人評鑑一份噉嘅研究嗰陣...

    基本模型

    一個迴歸模型會有以下三類主要參數同變數: 1. β {\\displaystyle \\beta } ,包括咗一啲未知、需要靠迴歸分析嚟估計[英 5]嘅參數,喺實際應用上,柞參數可以用一個向量嚟代表; 2. X {\\displaystyle X} 指柞 IV,用嚟預測 DV 數值嘅變數; 3. Y {\\displaystyle Y} 指個 DV,個迴歸模型要預測嗰個變數; 一個迴歸模型會表達出 Y {\\displaystyle Y} 同 X {\\displaystyle X} 之間嘅關係。一般嚟講,個研究者會想搵出 Y {\\displaystyle Y} 同 X {\\displaystyle X} 以及 β {\\displaystyle \\beta } 成嘅函數嘅關係,即係話喺做迴歸分析嗰陣,個研究者預咗: 1. Y ≈ f ( X , β ) {\\displaystyle Y\\approx f(X,\\beta )} ,呢句嘢係話「Y {\\displaystyle Y} 大致上係 X {\\displaystyle X} 以及 β {\\displaystyle \\beta } 成嘅函數...

    解方程

    而家假想一個包括嗮啲 β {\\displaystyle \\beta } 嘅向量,呢個向量嘅長度係 k {\\displaystyle k} (用日常用語講,即係話個模型有 k {\\displaystyle k} 咁多個 β {\\displaystyle \\beta } )。家吓迴歸分析要做嘅嘢係要估計啲 β {\\displaystyle \\beta } 嘅值,研究者要搜集個樣本返嚟,樣本入面嘅每一個個體都喺 X {\\displaystyle X} 同 Y {\\displaystyle Y} 呢兩個變數上分別有一個數值。簡單噉講,跟住落嚟嘅迴歸分析過程可以想像成「將呢啲數據值逐個逐個代入去條式嗰度,再靠噉嚟計出柞 β {\\displaystyle \\beta } 嘅值」,所以可以有三個情況: 1. 假想個研究者嘅樣本入面有 N {\\displaystyle N} 個個體。如果 N < k {\\displaystyle N

    線性迴歸分析[英 12]係最簡單嗰種迴歸分析。喺一個線性迴歸模型當中,個 DV 係柞自變數嘅線性組合,即係話喺成條式入面,每個參數都只有各自噉乘某啲常數(冇互相乘埋或者次方等),再加埋一齊。例如係一個有 n {\\displaystyle n} 件數據同一個 IV 嘅線性迴歸模型: 1. y i = β 0 + β 1 x i + ε i , i = 1 , … , n . {\\displaystyle y_{i}=\\beta _{0}+\\beta _{1}x_{i}+\\varepsilon _{i},\\quad i=1,\\dots ,n.\\!} 喺呢個模型之下,如果將 Y {\\displaystyle Y} 嘅預期值同 X {\\displaystyle X} 嘅值畫成圖,會得出一條簡單嘅直線...

    迴歸診斷

    同一樣嘅數據可以用多個唔同嘅模型嚟解釋,而分析者正路會想搵出最好嗰個模型。要決定邊個模型係最「好」,研究者可以用好多個指標:喺研究者建立咗一個迴歸模型之後,佢要計吓個模型嘅適合度[英 19]同所估計嘅參數嘅顯著差異;要計適合度,研究者可以用 R-平方[英 20]等嘅指標,呢啲指標共通點係按照個模型嘅數字(例如係各參數嘅數值),計一個數值出嚟,而個數值就反映咗個模型嘅某啲特性。例如 R-平方條式係噉嘅: 1. R 2 = 1 − R S S S S t o t a l {\\displaystyle R^{2}=1-{\\frac {RSS}{SS_{total}}}\\,} 當中 R 2 {\\displaystyle R^{2}} 係 R-平方,R S S {\\displaystyle RSS} 係正話提到嘅残差平方和,而 S S t o t a l {\\displaystyle SS_{total}} 係所謂嘅總差平方和[英 21](指如果個迴歸模型係一條 Y {\\displaystyle Y} 數值等如樣本平均值嘅橫線嘅話,誤差平方總共會係幾多)。R-平方嘅數值最大係 1,最細係負...

    統計功效

    統計功效[英 22]係另一個重要嘅指標,代表 1. (用行話講)「如果備擇假說係真,虛無假說能夠被拒絕嘅機會率有幾高」- 2. 簡單啲講,就係「成功噉探測到一個真實存在嘅效果嘅機會率」。 正路嚟講,研究者都會想呢個數值有咁高得咁高,但喺統計學上,對於要點樣計迴歸分析嘅功效,學界仲未有完全一致嘅共識。根據廿一世紀初最常用嘅做法,一個功效有返咁上下高嘅迴歸分析嘅樣本個體數要滿足以下呢條式: 1. N = m n {\\displaystyle {\\displaystyle N=m^{n}}} 當中 N {\\displaystyle N} 係樣本大細,n {\\displaystyle n} 係 IV 嘅數量,而 m {\\displaystyle m} 係指「如果個模型得一個 IV,能夠令到估計出嚟嗰個模型達到理想精確度嘅個體數量」。例如假想一個研究者想建立一個線性迴歸模型,佢個樣本入面有 1,000 個受試者(N {\\displaystyle N} );佢又決定,要精確噉斷定一個線性模型(m {\\displaystyle m} ),需要 5 個個體,噉個模型頂櫳可以有 4 個 IV,因為...

    插值外推

    個研究者分析出一個迴歸模型,又證實咗個模型適合度同功效有返咁上下高之後,佢就可以攞個模型做將來預測。將來預測可以分做兩大類- 1. 插值[英 23](指做預測嗰陣個 IV 同 DV 嘅值喺樣本範圍之內)同 2. 外推[英 24](指所預測嘅 IV 同 DV 數值遠遠喺樣本範圍之外) 通常個樣本啲數據都唔能夠代表嗮 X {\\displaystyle X} 同 Y {\\displaystyle Y} 嘅所有可能數值,例如係頭先提到嘅對體重同食量之間嘅關係嘅研究噉,個樣本好可能會缺少一啲體重超過 500 磅嘅人,而因為個迴歸模型係靠住一個缺少呢啲極端數值嘅樣本估計出嚟嘅,所以「呢個迴歸模型仲能唔能夠為呢啲具有極端數值嘅個體做準確嘅預測」係一個問題。 喺統計學當中,外推係一個零舍有爭議性嘅話題。做外推假設咗 -呢個係一個可能有問題嘅假設。現時學界一般嘅做法係,個研究者喺估計迴歸模型嗰陣要講明自己手上嘅數據嘅全距等嘅資訊,話俾第啲研究者知佢手上嘅數據範圍有幾廣,而如果有人想用呢個模型做外推性嘅預測嘅話,就要「後果自負」,亦都有啲科學家主張,學界應該一概拒絕所有外推型嘅預測。

    人工智能(AI)係一個研究點樣令到機械出現有智能嘅行為嘅領域。迴歸分析可以用嚟教電腦學習:想像家陣有個設計者想編寫一個人工智能程式,教曉部電腦例如靠一個病人嘅面色同體重等嘅因素(柞 IV)嚟診斷個病人係咪有紅血球過少嘅問題(DV),佢可以設定好似以下噉嘅碼: 喺呢個程式讀取咗一定量嘅數據之後,佢內部會有一個迴歸模型,跟住個設計者就可以試吓攞呢個程式做一啲醫療上嘅應用。事實係,呢種用到迴歸分析嘅人工智能程式喺醫療上時不時會用到。

  3. 受試內設計 ( 英文 : within-subject design ),又有叫 重複量數設計 ( repeated measures design ),喺 統計學 上指份研究量度咗每位受試者喺若干個時間點當中嘅變數數值;例:一路睇住班受試者嘅食量,每日睇一次,連睇 10 日,噉個數據庫會每個受試者有 10 個數值 ...

  4. 顯著水平. 在 雙尾檢驗 (英文:one- and two-tailed tests) 中,顯著水平 α = 0.05 下嘅拒絕域分別喺 抽樣分佈 兩頭最尾,佔曲線底下面積嘅5%。 顯著水平 ( significance level ,符號: α )經常攞嚟喺 假說檢定 中睇假設同實驗結果係咪一致,佢代表 虛無假設 (寫成 )冇錯嘅情況下,噉啱就將佢否定咗嘅概率,即係發生 第一型錯誤 (棄真錯誤、α錯誤)嘅機會。 譬如我哋響兩個總體裏便隨機揀出A、B兩組樣本數據,然後發現佢哋喺 .05水平 上具備顯著差異,就係講兩組數據所代表嘅總體亦都有顯著差異嘅可能性係95%;而佢哋代表嘅總體重有5%嘅可能性係冇乜分別嘅,呢個5%係由於 抽樣誤差 造成嘅。 亦都可以噉講:

  5. 收生成績計算方法. 理大嘅成績計算方法以 香港高級程度會考 為主線,其中A=5、B=4、C=3、D=2、E=1,而 高級補充程度 (ASL)嘅科目就要乘返0.6 [6] 。 例如,十三分嘅組合可以係 中化 同埋 英語運用 B,其他三科 高級程度 科目係CCD,而九分嘅組合可以係 中化 同埋 英語運用 C同D,其他三科高級程度科目係CDE。 當然重可以有好多其他組合。 教學方向. 香港理工大學辦學提供專業課程為原則,所以開辦課程嘅首要條件係學到嘅嘢可以應用落去工作入面,並且對社會作出貢獻 [7] 。 故此,佢開辦咗一啲比較實用嘅課程,好似 設計 同埋 紡織 及 製衣 等非學術型嘅科目,而且重係 獨市 課程。

  6. 播出時間. 逢禮拜六19:30—20:00. 《 大學關鍵詞 》( 英文 : University Keywords )係香港 MakerVille 製作嘅青少年資訊節目,由 羅允芝 、 范麒智 、 陳濬樺 同 安冬晴 主持,2023年8月5號開始逢禮拜六19:30—20:00喺 香港電視娛樂 ViuTV 播。. 節目會介紹香港各大學嘅校風 ...

  1. 其他人也搜尋了