英模孩子,
這週你們在題本中學了Mandela Effect,
俐媽還額外多教了十幾種effect呢!
而Mandela Effeft真的和南非前總統Mandela有關嗎?
是的!
但網頁提供的圖片不是Mandela,
卻是「阿甘正傳」裡的Forrest Gump,
那位說出經典名言「人生就像是一盒巧克力🍫」的阿甘?
Why???
俐媽說:
所以要點進去讀內文,才知道怎麼回事啦!
至於它的定義,
題本文章中都有解釋,
俐媽今天為大家補充一篇文章喔!
——————————————————————
👨🏾 俐媽英文教室—Mandela Effect篇:
👥 experiment (n.) 實驗
👥 genuine (a.) 真實的
👥 phenomenon (n.) 現象
👥 even though (conj.) 即使
👥 date back to… 追溯至⋯
👥 prison (n.) 監獄
👥 declaration (n.) 宣稱
👥 distortion (n.) 扭曲
👥 misinformation (n.) 錯誤資訊
👥 interfere with (phrase) 干擾
👥 recall (v.) 回想
👥 prominent (a.) 傑出聞名的
👥 apartheid (n.) 南非種族隔離政策
👥 parallel (a.) 平行的
👥 alternative (a.) 二擇一的;非主流的
👥 adamant (a.) 堅決的;固執的
👥 embellishment (n.) 裝飾
👥 assassination (n.) 暗殺
👥 attribute to N 歸因於⋯
👥 ignorance (n.) 忽略;無知
👥 auxiliary (a.) 輔助的
👥 obscure (v.) 使模糊;使不顯著
👥 Chances are that S + V 有可能⋯
👥 glitch (v.) 造成差錯
👥 contradiction (n.) 矛盾
👥 version (n.) 版本
👥 ultimately (adv.) 最後
👥 intrigue (n.) 陰謀;詭計
👥 accuracy (n.) 精準
👥 authenticity (n.) 道地;真實性
👥 misinformation (n.) 錯誤訊息
———————————————————————-
Source:
https://theconversation.com/the-mandela-effect-and-the-science-of-false-memories-114226
#俐媽英文教室
#俐媽英文教室效應篇
#俐媽英文教室MandelaEffect篇
#很多資訊不能以訛傳訛
#要確實求證哦
#台大明明要復課了
#我們很認真確實做防疫哦
「accuracy定義」的推薦目錄:
accuracy定義 在 Eric's English Lounge Facebook 的精選貼文
淺談「假新聞」
最近上課時學到一個新單字「positionality」,讓我想到當前社群媒體上,不停看到的「fake news」——假新聞。
簡言之,「positionality」(位置性) 被定義為於種族、階級、性別、性取向以及能力等狀態中,創造你身分的社會與政治背景。位置性還描述了你的身分如何影響你對世界的理解與看法,以及潛在的偏見。
positionality 位置性;定位
https://terms.naer.edu.tw/detail/3390885/
https://www.lexico.com/definition/positionality
以下是我對「positionality」與 「fake news」的些許觀點:
“Fake news” has permeated all facets of life, ranging from social media interaction to presidential elections. Fake news can be defined as “fabricated information that mimics news media content in form but not in organizational process or intent” (Lazer et al., 2018, p. 1094). The creators and outlets of fake news do not ensure the accuracy and credibility of information, but rather disseminate misinformation or disinformation for purposes ranging from personal amusement to creating deceptions to achieve political aims. At times, fake news is created and disseminated by state or non-state actors using social media accounts and networks of bots designed to hijack feed algorithms of platforms such as Twitter or Facebook (Prier, 2017, p. 54). In the 2016 U.S. presidential campaign, Facebook estimated that up to 60 million bots were used to post political content. Some of the same bots were then used in an attempt to influence the 2017 French election (Lazer et al., 2018, p. 1095). Such campaigns can be understood as a form of information warfare, a comprehensive attempt to control and influence every facet of the information supply chain, thereby influencing public opinion and behaviors. (Prier, 2017, p. 54). Often, fake news is not directly created by actors that seek to manipulate but by journalists or content creators whose content favors or aligns with the narratives of these actors (Doshi, 2020).
從社群媒體的互動到總統選舉,「假新聞」(fake news)已滲透至生活的各個層面。假新聞可被定義為「在形式上而非組織過程或意圖上,模仿新聞媒體內容所捏造的資訊」(Lazer et al., 2018, p. 1094)。無論是出於個人愛好或為達政治目的而有所欺瞞,假新聞的製造者與傳播管道並不保證資訊的準確性與可信度,反而是為了散播錯誤訊息(misinformation)或扭曲訊息(disinformation)。有時,假新聞是由國家或非國家行為者(state or non-state actors)所製造與傳播,藉由社群媒體帳號及網絡機器人來劫持諸如臉書與推特等平臺的推送演算法(Prier, 2017, p. 54)。在2016年的美國總統大選中,臉書估計有多達6千萬個機器人被用來發布政治貼文。其中,有部分機器人被用於影響隔年的法國大選(Lazer et al., 2018, p. 1095)。此類行動可視為資訊戰(information warfare)的一種形式,一種對控制與影響資訊供應鏈各環節的全面嘗試,從而影響公眾輿論與行為(Prier, 2017, p. 54)。假新聞通常是由記者或內容創造者(content creators)所創造,而非試圖操弄的行為者,前者的內容偏好符合後者的敘事(Doshi, 2020)。
Nevertheless, while the term “fake news” is commonplace, there is no universal, measurable way to quantify the fakeness or truthfulness of news. There are many fact-checking and media-bias detection tools, but they cannot objectively detect and clarify the more subtle and nuanced aims of manipulative actors that play a crucial role in news production. It can also be argued that the veracity of news depends not only on the actors that seek to manipulate it, but also on the positionality of its consumers. Therefore, one’s initial line of defense against misleading news lies not in the plethora of fact-checking devices but more in one’s pre-existing dispositions and skills to think and act in response to misleading information. This ability can be referred to as critical thinking, which can be more concretely expounded as “reasonable and reflective thinking focused on deciding what to believe or do” (Ennis, 2011, p. 15).
然而,即便「假新聞」一詞隨處可見,卻沒有統一、可衡量的方式來量化新聞的虛假性或真實性。目前有許多事實查核與媒體偏見檢測工具,但它們無法客觀地檢測與說明行為操弄者更狡猾、更細緻的目標,而這些操弄者往往在新聞的生產中發揮著重要作用。我們也可以說,新聞的真實性不僅取決於試圖操弄它的行為者,同時還取決於新聞受眾的位置性。因此,一個人對抗誤導性新聞的第一道防線,不在於這些五花八門的事實查核方式,反而在於個人所固有的性格,以及針對誤導性資訊的思考與行動等相關技能。這種能力可稱為批判性思考(critical thinking),意即「專注於決定相信什麼或做什麼的理性思考與反思性思考」(Ennis, 2011, p. 15)。
Taiwan, also known as the Republic of China (ROC), is at the forefront of information warfare. It is wedged between the geopolitical struggles of global and regional hegemonies such as the United States and China, the People's Republic of China (PRC). Compounding the matter are the Taiwan’s own political actors vying for influence and power. This struggle seeps into all aspects of life and practice, mainly manifesting itself on social media, a battleground of information warfare. The Ministry of Education of Taiwan is cognizant of these information campaigns, and efforts have been made to introduce media literacy into all parts of its education system. According to the ministry, the government has tried to promote media literacy education since 2000 (MOE, 2002, p. 1), with one of its primary goals to cultivate its “citizens” abilities for independent learning, critical thinking, and problem solving” (MOE, 2002, p. 2).
臺灣,也被稱為中華民國,正處於資訊戰的最前線。這是全球霸權與地區霸權之間——如美國與中國(中華人民共和國)——的地緣政治對抗。使問題惡化的是臺灣自身的政治行動者對影響力與權力的奪取。這場對抗遍布於現實生活的各個面向,主要於社群媒體中——資訊戰的戰場——展露無遺。臺灣的教育部注意到了這些資訊的煙硝,並已努力將媒體素養引入其教育體系。據該部稱,自2000年以來,政府一直試圖推展媒體素養教育(MOE, 2002, p. 1),其主要目標之一是培養「公民獨立學習、批判性思考以及解決問題的能力。」(MOE, 2002, p. 2)。
★★★★★★★★★★★★
上述段落認為,由於個人的位置性(positionality),「假新聞」極難定義。此外,有許多人把不符合自身成見與偏好的新聞逕斥為假新聞。這其實相當危險,因為個人觀點將會變得愈發孤立與激進。
閱聽人應意識到,他們在網路上看到的每個資訊都有特定立場。是否真有毫無立場的新聞文章?為了對抗操弄性或強制性資訊(coercive information),我們必須意識到權力於個中的作用,以及我們自身的位置性如何形塑我們的詮釋。這是我們的第一道防線。
★★★★★★★★★★★★
參考文獻
Doshi, R. (2020, January). China steps up its information war in Taiwan. Foreign Affairs. Retrieved March, 21, 2021, from https://www.foreignaffairs.com/articles/china/2020-01-09/china-steps-its-information-war-taiwan
Ennis, R. H. (1985). A logical basis for measuring critical thinking skills. Educational leadership, 43(2), 44-48.
Lazer, D. M., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., ... & Zittrain, J. L. (2018). The science of fake news. Science, 359(6380), 1094-1096.
MOE (Ministry of Education), Taiwan. (2002). White paper on media literacy educational policy. Retrieved March, 21, 2021, from http://english.moe.gov.tw/public/Attachment/ 2122416591771.pdf
Prier, J. (2017). Commanding the trend: Social media as information warfare. Strategic Studies Quarterly: SSQ, 11(4), 50-85.
★★★★★★★★★★★★
教育時評: http://bit.ly/39ABON9
相關詞彙: https://bit.ly/2UncrfI
TED相關影片: https://bit.ly/3BDsDKl
accuracy定義 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答
訓練AI模型,要多少數據?拆解企業人工智慧專案為何難落地
2020.12.09 by 若水AI Blog
企業導入AI似乎已成為一種趨勢,但是訓練AI模型,需要多少數據?其背後的商業命題與成本又該如何解決?帶你來一起窺探AI專案背後的秘密!
企業的AI專案在釐清問題本質、找到命題之後,首先會面臨到一個問題:收集數據(Data Collection)和建立AI模型(Model Establishing),該以什麼作為評估基準?
訓練一個AI數據模型,需要多少數據?
訓練AI數據模型時,其實有三個要素,彼此互相影響。分別是: 商業問題的複雜度 、 AI模型複雜度 (Model Complexity),以及 數據複雜度 (Data Complexity)。
因此,如果想知道需要多少訓練數據(Training Data),建議先釐清:這個AI專案到底要處理什麼問題,以及這個問題有多複雜?確定之後,再來判斷應該選用哪種程度的模型來做訓練。根據不同的商業命題複雜度,用不同複雜度的模型和精準數據彼此搭配,找出最佳平衡,才能讓AI專案順利落地。
但光憑想像,很難評估實際的AI數據量和成效,所以開始AI的第一步,需要先透過POC概念驗證(Proof of Concept)實驗來找答案。
簡單來說,就是針對不同複雜程度的商業問題,嘗試選用不同複雜度的模型搭配測試,直到模型跑出來的曲線,符合理想目標。
一般狀態下,假設商業問題本身的複雜度很高,我們會預期要選擇複雜度較高的模型。但是如果數據量不足,那麼選擇複雜度較高的AI模型,反而會比用簡單的AI模型效果還差。(上圖左上、右上,分別代表複雜度10和複雜度50的問題,可以明顯看出複雜的模型曲線比較接近學習數據集(Dataset),但是在測試數據集上的誤差 Eout,反而比簡單模型還差了許多。)
上圖的左下和右下,是以不同複雜度的模型去做POC,跑出來的結果曲線圖。藍色線代表的是學習數據(Training Data)成效,紅色線代表的是測試數據(Testing Data)成效。最理想的POC目標,應該是兩條曲線很貼近彼此,而且位置越低越好。
我們會發現,左下這張圖的兩條曲線雖然彼此貼近,但是就算增加數據,也無法降低誤差。這表示模型偏誤(Bias)高,效果不佳,應該要增加模型複雜度 (Model Complexity)。
增加模型複雜度之後,就會像右下這張圖,藍色曲線(學習數據)雖然數值很低,但在學習數據不足的情況下(灰色區塊),紅色曲線(測試數據)卻「飄」得太高。這表示模型變異誤差(Variance)高,應該要增加學習數據。最後在慢慢增加模型複雜度以及學習數據之後,我們就可以達到理想的結果(兩條曲線很貼近彼此,而且位置越低越好)。
數據哪裡來?發展AI人工智慧之前,先建立數據流
先前我在文章裡提到,很多企業會急著開發AI模型,但AI專案落地經驗的三大關鍵之一,其實是先確認:是否已經準備好數據了?如果沒有這樣的能力,談AI落地其實有點好高騖遠。
AI數據收集(Data Collection)最大的挑戰,在於針對不同型態的命題,會產生不同的AI數據需求,因此需要建立的「數據流」(Data Pipeline),AI數據處理 (Data Processing)和數據標註(Data Annotation)的模式及流程也會有所不同。
發展AI之前,如果能建立起從數據收集(Data Collection)、數據處理(Data Processing)到AI模型學習的數據流(Data Pipeline),並確保可以順暢運行,實際訓練AI模型時才會省力很多。
數據不夠或太多怎麼辦?
Google開設的機器學習(Machine Learning)課程中,第一項原則就開宗明義地指出:「Don’t be afraid to launch a product without machine learning」。
如果你的產品或業務不一定需要用到機器學習(Machine Learning),那就別用,除非你有AI數據。有數據,再來談機器學習(Machine Learning)。但在業界的實際狀況,大家不是沒有數據,而是只有一些些,這時候該怎麼辦?我會建議,先從小地方開始做起,也就是從POC專案著手。
POC專案要有具體成效,除了要注意設計專案、實驗模型的指標(Metrics),企業最重要的是要先定義清楚:AI專案要達到什麼樣的指標,才算是成功?這樣最後做出來的成果,才會真正符合商業目標。
如果今天不是沒有AI數據,而是數據很多,又該從何下手呢?
我建議,嘗試減少訓練AI人工智慧時的「 數據大小 」和「 數據筆數 」。
過去曾經處理過一個AI專案,數據多達2億筆。第一次實驗,把數據全部餵進AI模型,取得結果。第二次,只拿其中有代表性的500萬筆出來訓練人工智慧。
猜猜結果如何?兩次實驗的表現,只差異不到1%。
所以,如果企業對於AI數據的品質和數量有一定程度的自信根據,其實不用把數據全部餵進AI模型訓練(Model Training),只用有代表性的AI數據來訓練就可以了。市面上很多常見的AI工具(Cluster),可以做到這點,幫助省時省力。
AI模型訓練,記得校準商業目標
企業發展AI人工智慧的最終目的,還是希望能 達到商業目標,創造價值 。
所以,訓練AI模型時,團隊如果不知道如何判斷哪個指標,對AI模型學習來說比較重要,建議回歸初心,重新釐清「 這個專案想達到的商業目標是什麼 」。
比方,趨勢科技(Trend Micro)要開發一個能夠判斷電腦病毒的AI,但是勒索病毒(denial-of-access attack)和廣告病毒對客戶的傷害程度大不相同。這時候,工程師就會針對這個命題,餵給AI模型不同病毒種類的數據,讓它學會判斷不同病毒的重要性,分辨出哪些病毒比較嚴重不能有判斷錯誤,而哪些病毒比較無害,不一定要做到一百分。
最常見的訓練方法,是用成本函數(Cost Function)的方式,訓練完再回去調整AI模型的評分(Rating),用加扣分的方式,告訴機器它的學習表現是好是壞,做對就加分,做錯就扣分。
上述評分原則的制定,和企業的商業價值考量息息相關,所以一般在組織分工,會由PM專案團隊負責判斷哪些項目重要,請資料科學家設計在上述Cost Function裡面。
很多人以為,AI人工智慧開發要做到很完美才行,但其實根據我們的經驗,只要AI開發成本符合預算、AI模型表現可接受(大約做到60–70分),而且結果有助於降低成本,就可以算是達到商業目標。反過來,即使AI模型表現非常好(高達90分),但成本卻遠超出預算,就不建議執行。
另外,因為POC階段會做很多的實驗,需要拿兩個穩定且可以互相比較的基準做A/B Test,所以做好基礎建設非常重要。
如果一個團隊裡面有三位工程師,但三個人做出來的結果都無法互相比較,那麼這個實驗就會變得霧裡看花,導致AI專案難以落地。
AI數據小學堂:模型指標(metrics)
在做模型實驗時,通常會用混淆矩陣(Confusion Matrix)的四種指標:TP(True Positive)、TN(True Negative)、FP(False Positive)、FN(False Negative),以及Count、Unique和Accuracy等等函數,來判斷這個模型的表現好不好。
P或TN值,代表模型辨識的答案正確,和預期結果一致。例如:模型正確判斷出「這是一隻貓」、「這不是一隻貓」。而FP或FN值,則代表模型的判斷錯誤,例如「明明是貓,模型卻說不是貓」、「明明不是貓,模型卻說它是貓」。
附圖:AI模型 若水國際
AI模型的POC概念驗證實驗怎麼做?
資料來源:https://www.bnext.com.tw/article/60440/ai-strategy-04?fbclid=IwAR1SOhjjGxypdGgOGfaBIl_a1IsZFJAQZ8J2aeDd98spbUfOdg7hiPQP7UA
accuracy定義 在 Calculate Accuracy from Confusion Matrix - gists · GitHub 的推薦與評價
從Confusion Matrix 計算出Accuracy 分類評量值. binary=True,二元分類時,使用TP, FP, TN, FN 的定義去做,accuracy = (TP + TN) / (TP + TN + FP + FN). ... <看更多>
accuracy定義 在 [情報] Calibration Curve - 精華區NTUCH-102 - 批踢踢實業坊 的推薦與評價
https://ppt.cc/xAbM
這大概是這次考試最後一份了,
剩下有關統計的東西,我只列了幾個點,剩下的大家就自己看吧~
(1)accuracy:一個測試結果(有可能為一次測量、或是多次測量的平均)與真值的接近
程度。
trueness:「一大群」數據的平均值,與真值的接近程度。(測量次數趨近無限)
兩者差別在於測量次數N,trueness 僅有系統誤差在主導,但 accuracy 可能有系
統誤差和隨機誤差兩個因素。
當 accuracy 定義為一次測量結果時,隨機誤差會完整貢獻;然而,當 accuracy 定
義為多次測量的平均時,隨機誤差所占的比例會下降,系統誤差所占的比例會增加。
(2)誤差傳遞中,各項誤差以平方的形式貢獻,因此誤差越大的項,對於最後運算結果的
誤差貢獻值越多。這個概念可以解釋有效數字的運算法則。
(3)差異檢定的目的,是要判斷實驗結果之間有沒有差異,這個差異能不能被測量的隨機
誤差解釋。其中,我們是在判斷零假設能不能被否決;但我們永遠無法接受零假設,
正如同我們無法證明一個被告人是清白的一樣。
t-test 分為三種:(計算 t 值 > 查表 t 值 => 駁回零假設)
a. 實驗值和真值的比較;
b. 兩組實驗值的比較;(兩方法的差異、兩樣品的差異、...)
c.paired t-test:要比較兩種方法的差異,但在樣品量不足以進行多次測量時,便
以多組樣品各測一次的方式,將各組樣品在兩方法下測得的值相
減,以扣除不同樣品濃度中隱含不同標準偏差的影響。以這些差
值的平均及標準差計算 t 值,以判斷兩方法有無差異。
(4)F-test:透過比較兩方法所得數據結果的變異數,比較兩方法隨機誤差是否有差異。
(5)Q-test:判斷一個值是否為離群值。
今天身體狀況不太舒服(倒)
大家加油!
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 114.36.66.14
... <看更多>