用合成照辦證件順利闖關 戶政人員憂AI技術恐增查核難度
用合成照辦證件順利闖關 戶政人員憂AI技術恐增查核難度 - 社會 - 自由時報電子報 https://bit.ly/4apvqb7
2024/04/14 00:44
用友人合成照申辦護照 通緝犯竟順利入出國11次
〔記者廖雪茹/新竹報導〕通緝犯范姓男子持合成照片補領身分證、申辦護照,竟順利多次入出國,新竹縣竹北戶政事務所表示,戶政人員除以肉眼觀察,雖有人貌對比系統核對身分,但AI技術日新月異,未來AI合成照片恐魔高一丈,增加審查作業難度,建請中央提早防範因應。
因案被通緝的28歲范姓男子,利用與林姓友人相似的臉部特徵合成1張照片,以友人的國民身分證遺失為由申請補領後,再用其名義申辦護照,竟順利入出國11次。
竹北警分局表示,范男因在國外被查獲犯罪,名單交由外交部查核後發現護照有異,交辦竹縣警局偵查。警方先通知林姓友人到案說明,再循線查獲范男一連串的犯行。
新竹縣警察局表示,科技犯罪偵查隊除了有專業軟體,可供識破電子檔合成照片等犯罪型態;若是用眼肉觀察,則可注意光線協調性等細節,例如線條有沒有自然、背景物品線條有沒有歪曲等。
竹北戶政事務所指出,民眾初辦、申辦或補領國民身分證時,承辦人員除了肉眼核對臨櫃申請的本人和照片,後台也會以人貌比對系統審核,與檔案照片進行比對,檢視顏面的顴骨距離、眼睛、耳垂、下巴等容貌特徵。
若經核對後發現差異大,承辦人員會委婉詢問當事人原因,甚至要求提出相關證明,如其他有照證件或是醫美手術等證明。若是因為修片過度,為求謹慎可能會退件,要求重新拍攝照片再申辦。
不過攝影店業者認為,合成照再怎麼精密,跟本人也會有差異,除非是刻意化妝成相片中的樣貌,或是這兩人本來就長得非常相像;另一方面,假冒者厲害之處,在於面對查驗都不會緊張、露出破綻,讓審核人員不會起疑。用合成照辦證件順利闖關 戶政人員憂AI技術恐增查核難度 - 社會 - 自由時報電子報 https://bit.ly/4apvqb7
用合成照辦證件順利闖關 戶政人員憂AI技術恐增查核難度 - 社會 - 自由時報電子報 https://bit.ly/4apvqb7


復興商工美展第一名取消!當事學生認了用AI繪圖 - 生活 - 自由時報電子報

ChatGPT的寫作水平非常高AI技術發展的速度非常快,大學


ChatGPT 殺手「GPTZero」要讓AI更透明,讓人們更負責任的使用AI | T客邦 https://bit.ly/3RZWaIA
ChatGPT 殺手「GPTZero」要讓AI更透明,讓人們更負責任的使用AI
geekparkgeekpark 發表於 2023年1月20日 13:00 收藏此文
ChatGPT 殺手「GPTZero」要讓AI更透明,讓人們更負責任的使用AI
最近兩個月,科技圈最熱門的話題,無疑是 OpenAI 推出的對話式 AI 應用 ChatGPT,不僅可以讓它為你寫首詩、回答你的任何問題,甚至可以讓它幫忙寫沒那麼複雜的程式。業內甚至認為,ChatGPT 甚至有取代Google的潛力。 
為 ChatGPT 歡呼的還有另一群人,就是「社畜」和學生——他們發現月度總結、學校論文和作業這樣的任務,也可以讓 ChatGPT 代勞了,後者甚至寫得有模有樣,不比真人寫得差多少。 
ChatGPT 似乎讓學生們的日子更輕鬆了,但卻讓教師更頭痛了,因為後者很難確認,眼前這些文字,到底是學生寫的,還是出自 OpenAI 的產品之手。為此,紐約教育部甚至禁止公立學校使用 ChatGPT。 
在這樣的混亂中,一位普林斯頓大學的學生,Edward Tian 推出了一個專殺 ChatGPT 的應用程式——「GPTZero」,有了這面「照妖鏡」,內容是人寫的,還是機器寫的,真相馬上就揭曉。 
「GPTZero」在網路迅速爆紅,吸引了 a16z 在內的矽谷創投的目光。但是應用創造者本人 Tian 卻認為,最重要的事,是「讓 AI 更加透明」。 
「ChatGPT 殺手」
在 ChatGPT 成為學生們「偷懶」的神器後,教育和科學研究機構不得不開始抵制這個新的噩夢。 
紐約教育部宣布禁止學生在公立學校使用 ChatGPT ;全球知名機器學習會議之一的 ICML 也宣布禁止發表包含由 ChatGPT 和其他類似系統產生內容的論文,以免出現「意外後果」。 
出於對學術界,使用 ChatGPT 相關道德問題的擔憂,Edward Tian 在一家當地的咖啡店裡,花了一個寒假的時間,研發了 GPTZero,希望能讓學術界恢復嚴謹性。 
Tian 年僅 22 歲,目前仍是美國普林斯頓大學的大四學生,主修電腦科學專業,專門研究自然語言處理,同時輔修認知科學和新聞學。
GPTZero 的開發者 Edward Tian
▲ GPTZero 的開發者 Edward Tian
Tian還曾是英國廣播公司和開源情報網站 Bellingcat 的研究員,也曾是被微軟收購的反恐初創公司 Miburo Solutions 的分析師。在那裡,他監測虛假資訊和機器人檢測。Tian 說,「所有的這些經歷,都是他研發 GPTZero 的動力」。 
2023 年 1 月 2 日,Tian 將 GPTZero 發布到網路,預計只會有幾十個人嘗試它,完全沒有想過,這會掀起一場世界級的軒然大波。 
在他把這款軟體上傳到網路上的幾個小時內,竟有超過 2000 人在 Steamlit 上測試了 GPTZero 的公開版本。 
1 月 5 日,也就是發布的第三天,Tian 對 GPTZero 做出了更新和改善,還顯著降低了誤報率;此時,新程式已有超過 1 萬的使用者了!Tian 也不禁對它的「爆炸性增長」和「病毒式傳播」感到震驚。 
據 NPR 報導,一周內有 3 萬多人試用了 GPTZero,甚至「導致該應用程式由於出乎意料的高流量」而崩潰,託管 GPTZero 的免費平臺 Streamlit 此後介入,以更多的記憶體和資源支援 Tian,以處理網路流量。 
Edward Tian 透過在影片中展示其對一篇《紐約客》文章和 LinkedIn 上的 ChatGPT 產生器的文章的分析,展示了該應用如何區分人類和人工智慧撰寫的文本。 
GPT Zero 的工作原理就是檢測文本的「困惑性」(Perplexity)和「突發性」(Burstiness)這兩項指標,並分別對其評分,根據統計學特徵來確定,文本是由人工智慧寫的還是人類寫的。總體來說,如果這兩項參數得分都很低,那麼該文本很有可能出自 AI 之手。 
這裡所說的「困惑性」,是指來自人類所寫作品的語言的複雜性和隨機性。 
這個指標主要是衡量文本在一個句子中的隨機程度,以及一個句子的構造方式是否會讓 GPTZero 感到困惑。 
每當使用者在 GPTZero 輸入一段測試內容,它就會分別計算出:「文字總困惑度」、「所有句子的平均困惑度」、「每個句子的困惑度」。 
這些數值越低,越能說明這個文本對 GPTZero 來說是非常「熟悉」的,那麼它很可能是 AI 產生的;相反,如果這些數值越高,就越能說明文本中句子的構造或用詞方式讓 GPTZero 感到「驚訝」,那麼它就更可能是出自人類之手。 
這是因為,人工智慧接受過資料庫的訓練,產生的文本在一段時間內,表現出的困惑度會更均勻和恒定,選詞的可預測性也更高;而人類書寫的文本則不會這樣,真人的遣詞造句一般會比較隨機,比機器更容易寫比較出乎意料的詞句。
使用 GPTZero 檢測文字是否由 ChatGPT 所產生
▲ 使用 GPTZero 檢測文字是否由 ChatGPT 所產生
而「突發性」,則是指來自人類使用的句子結構的變化。
這個參數主要是比較句子複雜性的變化程度,衡量它們的一致性。 
這是因為,人類傾向於寫高度複雜的文本;而人工智慧產出的文本則是低複雜度的;此外,由於人類的思維結構不是線性的,他們的句子結構也遵循類似的模式。 
這意味著,人類使用句子結構,會在長而複雜的句子,和短而簡單的句子之間搖擺不定,有著更多的句型變化,比如複雜和簡單交替並存,一個長難句之後接著出現更簡短的句子;而機器產生的句子則傾向於更加統一,很少會有一系列長度相差很大的句子。 
簡而言之,在選詞上「簡單」而「熟悉」,並使用「統一整齊」的句子,是人工智慧產生的作品的特徵,而更複雜和多樣的東西,則表明是人類寫的。這也是「困惑性」和「突發性」這兩項指標可以作為衡量標準的原因。 
除了 Edward Tian 本人對 GPTZero 進行測試之外,也有不少網友用它對 ChatGPT、一些 GPT-3 衍生工具產生的內容進行了多次測試。最終結果顯示,GPTZero 每次都能抓住 AI 產生的文本,並在十多個案例中正確辨識了人類寫的文本。 
GPTZero 的一炮而紅,讓 Tian 獲得了來自 a16z、 Menlo Ventures 和 Red Swan 等知名風投的青睞。不過,面對Twitter私訊和電話轟炸,Tian 卻顯得異常冷靜,他謙遜地表示自己不會拒接投資者打來的電話,但他不會忘記自己仍然是一位即將畢業的大四學生。 
同時,他還表示自己的 GPTZero 尚未完成,仍需改進和進一步地開發,甚至計畫讓大家繼續免費使用他的程式,用來支援各地新晉英文老師的工作。 
急需的「AI 透明」
對於 GPTZero 這一甄別文字是否是 AI 寫作的新程式,Twitter上的輿論褒貶不一,以教師為代表的成年人大多喜聞樂見,而學生卻諷刺 GPTZero 的創造者 Tian 是「學術緝毒員警」。 
的確,當 GPTZero 推出時,Tian 收到了眾多教師對該應用程式在檢測 AI 寫的文章方面的積極回饋,來自世界各地的無數教師也都對 Tian 表達了他們的感激之情——這讓他們的教學難度大大減輕了。 
當然,也不難理解,不少學生並不樂見Tian 這款打擊學術偷工減料、不勞而獲的軟體。 
事實上,不只是 Tian,就連 ChatGPT 的開發商 OpenAI 自己,也已經表明了對防止人工智慧剽竊的承諾。 
2022 年 12 月,OpenAI 專注迮人工智慧安全的研究員 Scott Aaronson 透露,該公司正在努力開發「緩解措施」,用一種「不易察覺的秘密訊號」在 GPT 產生的文本打上「浮水印」,以辨識其來源,進而打擊作弊的系統。 
這項技術將透過微妙地調整 ChatGPT 選擇的特定單詞選擇來發揮作用,讀者不會注意到這種方式,但對於任何尋找機器生成文本跡象的人來說,這在統計上都是可預測的。 公司發言人表示,「我們將 ChatGPT 作為新研究的預覽技術,希望能從現實世界的應用中進行學習。我們認為這是開發和部署功能強大、安全的 AI 系統的關鍵部分。我們會不斷吸取回饋和經驗教訓,」。
GPTZero 首頁
▲ GPTZero 首頁
此外,OpenAI 還聯合哈佛等高校機構聯合打造了一款檢測器:GPT-2 Output Detector。 
作者們先是發布了一個「GPT-2 生成內容」和 WebText 資料集,説明 AI 理解機器語言和人類語言之間的差異。 
隨後,用這個資料集對 RoBERTa 模型進行微調,就得到了這個 AI 檢測器。其中人類語言一律被辨識為 True,AI 產生的內容則一律被辨識為 Fake。 
值得一提的是,RoBERTa 是 BERT 的改進版。原始的 BERT 使用了 13GB 大小的資料集,但 RoBERTa 使用了包含 6300 萬條英文新聞的 160GB 資料集。 
儘管如此,還是有不少人認為,「AI 文本檢測器」註定是一場失敗的「軍備競賽」,其實際效果並不理想,更無法阻擋 ChatGPT 等 AI 語言模型的發展。 
然而,儘管 Tian 建立了 GPTZero,他並不反對使用 ChatGPT 等人工智慧工具,他認為 GPTZero 應用程式的目的不是阻止這些新技術的使用,而是提供一種負責任地使用這些技術的方法,並提供必要的保護。 
同時,相對於對抗或者禁止一項技術,也許更重要的是如何為其使用定下規範和標準。例如,在廣告、影視及娛樂等行業,對於 AI 生成類內容的容忍度可能適當提高一些;而在學術、教育和科學研究領域,非常強調準確性和原創性,毫無疑問,對於 AI 生成內容的容忍度就要低一些。 
而如何確定 AI 工具使用的「透明度」,可能要比研究如何「反 AI」,要更有效,也更有意義一些
ChatGPT 殺手「GPTZero」要讓AI更透明,讓人們更負責任的使用AI | T客邦 https://bit.ly/3RZWaIA


首見「AI生成」AV女優!「木花愛」頂G奶核彈 12月出道
2023/11/24 00:32  首見「AI生成」AV女優!「木花愛」頂G奶核彈 12月出道 - 自由娛樂 https://bit.ly/3use9Oz
日本有AV片商宣布將推出全世界第一位由AI生成的AV女優「木花愛」。(圖翻攝自木花あい_X平台)
〔即時新聞/綜合報導〕人工智慧(AI)技術越來越成熟,被稱為「成人片大國」的日本竟搭上AI風潮,有片商近日宣布將有新人女優登場,而且是全世界第一位由AI生成的AV女優!
AV達人「一劍浣春秋」週四(23日)在《Play NO.1》發文表示,日本成人片商「h.m.p」近日宣布全世界第一位由AI繪圖生成的AV女優「木花愛」(木花あい)將出道,還釋出木花愛的性感寫真,並為她創設IG和X平台(前身推特)帳號,乍看還真看不出不是真人。
日本有AV片商宣布將推出全世界第一位由AI生成的AV女優「木花愛」。(圖翻攝自木花あい_X平台)
一劍浣春秋透露,「h.m.p」目前將木花愛設定成身高165公分、體重55公斤、擁有G罩杯的美女,出道作預計12月22日發行,「AI繪圖出來的美女拍出來的會是什麼樣的AV?h.m.p沒給試看影片,所以我還真不知道出來的品質如何,只能到時候看看片商交出什麼樣的成品了。」
最後一劍浣春秋表示,雖然木花愛是第一個AI女優,但AI繪圖技術其實早在日本成人圈登場,而且取得不錯的成績,「例如之前就可以看到一堆AI美女的寫真在排行榜上名列前茅。雖然知道由AI美女拍攝的AV遲早會誕生,但看到木花愛的出現,還是讓人感慨科技始終來自人性,就不知道未來會不會現實與虛擬混淆、讓人傻傻分不清楚。」首見「AI生成」AV女優!「木花愛」頂G奶核彈 12月出道 - 自由娛樂 https://bit.ly/3use9Oz

ChatGPT的寫作水平非常高AI技術發展的速度非常快,大學ChatGPT的寫作水平非常高AI技術發展的速度非常快,大學


https://chat.openai.com/chat


美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」 - 國際 - 自由時報電子報


紐時、CNN封殺ChatGPT 拒絕擷取新聞內容訓練AI - 國際 - 自由時報電子報


ChatGPT Diagnosed A Boy's Pain. 17 Doctors Over 3 Years Could Not https://on.today.com/3PnzLlP
看了17個醫生都沒用!男孩飽受慢性疼痛3年 媽靠ChatGPT找出病因 | ETtoday國際新聞 | ETtoday新聞雲 https://bit.ly/3PIyxmH


AI快又準!DeepMind贏了 預報10天氣象只要1分鐘 - 國際 - 自由時報電子報


AI 繪圖獲獎 https://bit.ly/45P1eUA

ChatGPT的寫作水平非常高AI技術發展的速度非常快,大學


東海中文系新學年起 大一國文導入ChatGPT訓練寫作
 東海大學中文系新學年起,大一國文導入ChatGPT訓練學生寫作。(圖:東海提供)
東海中文系新學年起 大一國文導入ChatGPT訓練寫作 - 生活 - 自由時報電子報 https://bit.ly/44DYxEc
 2023/07/10 16:30
〔記者蘇孟娟/台中報導〕AI人工生成智慧系統日新月益,東海大學中文系訂新學年起試行大一國文導入ChatGPT學生進行閱讀、寫作以及文學作品訓練;系上將選一個班級推動「創新教學」,將設計為期近1個月的課程時間,導入ChatGPT,引導學生利用ChatGPT作學習輔助工具,包括輸入一個主題或開頭,讓它生成一個故事或詩歌,學生後續對作品進行評價、修改或延續。
 東海大學大一中文委員會表示,ChatGPT是一項輔助工具,它對於中文系學生而言並非威脅,而是能提升自我的輔助工具,讓學生藉由與AI ChatGPT互動的方式激發創造力和批判思考能力;目前興大與逢甲大學暫無相關教學計畫,彈性授權教師視課程規劃需要適度導入課程。
 東海大學指出,為因應AI時代的來臨,東海大學中文系計畫改革現有大一中文課程,將選一班作推動AI輔助學習的創新教學班,鼓勵大學生利用ChatGPT技術,跳脫傳統框架,提升寫作與敘事能力,強化對文學評價的能力。
 東海大一中文委員會表示,採取循序漸進式的改革,新學年度入學的中文系大一生將分為現行教學班及創新教學班,其中創新教學班會先嘗試導入ChatGPT,引導學生利用ChatGPT作學習輔助工具,舉例而言,學生可以在ChatGPT中輸入主題或開頭,然後讓它生成一個故事或詩歌,但學校的教育角色這時就要介入,教導學生不能照單全收,而是要能對作品進行評價、修改或延續透過與ChatGPT進行對話,包括提出問題、發表個人意見,ChatGPT可看成是另一個不同角色的作者,但主作者及文章的主要創作人仍是學生,盼透過與ChatGPT互動的方式,激發學生的創造力和批判思考能力。
 東海大一中文委員會強調,ChatGPT不具備搜尋功能,產出的文章甚至有很多錯誤之處,或者「不知所云」的ChatGPT式文體,學生要具備判斷錯誤的能力,更要能融合貫通後加入自己的思惟及創作,ChatGPT仍無法完全取代人文的創作,且學生若照單全收,可能重覆性高,極很容易就被老師看出破綻。
 東海大一中文委員會強調,目前仍屬試驗性質,學校會在推動一定時間後再比較「創新教學」班與現行教學班的學習差異,未來再作是否再擴及其他系所中文課導入ChatGPT時的參考。東海中文系新學年起 大一國文導入ChatGPT訓練寫作 - 生活 - 自由時報電子報 https://bit.ly/44DYxEc


正版 ChatGPT 手機 App 怎麼玩?日常 3 種用法比 Google 更方便
2023/05/19 11:15文/記者黃肇祥  (圖/美聯社)
 ChatGPT 正式發表官方手機 App,首波由美國 iOS 用戶搶先體驗,後續開放更多國家以及 Android 平台。未來民眾隨時都能有 AI 輔助,然而 ChatGPT 在手機上到底能有哪些用途呢?以下簡單分享三招。
 ChatGPT 有許多專業的用法,可以協助撰寫程式碼,或是用於創意寫作由 AI 提供靈感等等,然而對於沒有要用於工作領域的一般民眾,也有方法能善用 ChatGPT 的分析理解能力,試著輸入較為複雜的問題,增添更多條件,能獲得比 Google 更好的答案。
 一、規劃旅程
 首先第一招是請 ChatGPT 協助「規劃旅程」,輸入複數條件,例如希望多一點室內、美食行程,以及方便搭乘大眾運輸前往,或是能夠攜帶寵物同行的地方,作為初步的旅遊行程草稿。倘若一般使用 Google 搜尋,就只能輸入特定關鍵字,再逐步去篩選資料,透過 ChatGPT 能節省許多時間。
 參考問法:「我想去新竹玩,請推薦一日遊行程,有一隻狗狗,希望是好停車的地方」
 二、翻譯摘要
 另外 ChatGPT 也支援多國語言翻譯,並且可以搭配摘要文章的能力,將想要看的外語文章複製貼上,得以命令 ChatGPT 進行 100 字的摘要,或是直接以條列式劃出重點,實際體驗會比 Google 翻譯更加方便。
 參考指令:「請給我這篇文章 3 個條列式重點,使用中文。...(複製貼上文章內容)」
 三、制定計劃
 最後則是請 ChatGPT 替你量身打造專屬計畫,涵蓋學習、鍛鍊、減重等等各個領域,比起在 Google 尋找各種教學文章,只要輸入條件 ChatGPT 就能協助篩選作法,例如實測「想要瘦身,但不愛運動,該如何著手規劃?」,ChatGPT 就會列出了注意飲食、餐前餐後日常習慣、睡眠品質等 5 個方面,讓你逐步檢視自己可以努力前進的方向。
 參考指令:「我想要瘦身,可是平常沒時間運動,又不想戒手搖飲,該怎麼辦?」
 建議讀者使用 ChatGPT 仍要搭配 Google 或是其他工具進行輔助,主要是因為 ChatGPT 資料庫停留在 2021 年,用於推薦產品、餐廳難免不符現況。記者實測請讓 ChatGPT 推薦旗艦手機,給出的型號卻是 iPhone 13 Pro Max、Samsung Galaxy S21 Ultra 等舊款手機。
 正版 ChatGPT 手機 App 怎麼玩?日常 3 種用法比 Google 更方便 - 自由電子報 3C科技 https://bit.ly/42WW1J2
-------------------------------------
 擔心機密外洩!傳蘋果頒員工禁令:不准用ChatGPT
2023/05/19 11:02
文/記者吳佩樺
  外媒報導,蘋果禁止員工使用ChatGPT。(圖/美聯社)
 不少大型企業為防止機密外洩,禁止員工使用ChatGPT,據外媒《華爾街日報》看到的一份文件及知情人士的透露,蘋果也已經限制員工不准使用ChatGPT及其他AI工具,而蘋果正在自行開發類似技術。
 文件中顯示,蘋果擔心員工使用這類AI工具,可能會洩露內部的機密數據,蘋果還告訴員工,不要使用微軟旗下代碼託管平台GitHub的Copilot,後者可以自動編寫軟體代碼。
 蘋果執行長庫克日前也被問及ChatGPT問題,他說「肯定AI力量,但要對其保持謹慎和深思熟慮,仍有許多問題需要解決。」
 事實上,企業員工使用ChatGPT進而洩露公司機密時有所聞,最近最經典的例子是三星,事件爆發後,三星立刻頒發禁令:員工被發現偷用一律開除。擔心機密外洩!傳蘋果頒員工禁令:不准用ChatGPT - 自由電子報 3C科技 https://bit.ly/436Quz6


蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查
 本月發表在教育專業期刊上的一篇論文,其實是AI機器人ChatGPT的作品,而且通過4名學者審查。(法新社檔案照)
蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查 - 國際 - 自由時報電子報 https://bit.ly/3n7pLm8
 2023/03/20 06:55
  〔編譯林雨萱/綜合報導〕通用人工智慧(artificial general intelligence,AGI)的興起,將為世界帶來天翻地覆的改變,遠勝過歷史上任何一項發明。本月發表在教育專業期刊上的一篇論文「聊天與欺騙:在ChatGpt時代確保學術完整性」(Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT),便描述AI工具為何招致眾多挑戰和憂慮,尤其是涉及學術誠信和抄襲。然而,這篇論文其實就是AI機器人ChatGPT產製的作品,而且經過4名學者審查,皆符合學術標準。
 英國衛報19日報導,假冒該論文主要作者的英國普利茅斯聖馬可和聖約翰大學(Plymouth Marjon University)教授康頓(Debby Cotton)表示,她希望藉此展現ChatGPT的寫作水平非常高,「這是一場軍備競賽」,AI技術發展的速度非常快,大學難以企及。
 康頓和2名也聲稱自己是論文作者的普利茅斯大學同僚,向「國際教育與教學創新」(Innovations in Education and Teaching International)雜誌的編輯揭露此事,但同儕審查(peer-reviewed)的4名學者認為,這篇論文真的是由這3名學者聯合撰寫的。
 據報導,多年來,各大學一直積極取締論文工廠向任何試圖作弊的學生,出售預先寫好的論文和其他學術作品。但現在學者懷疑,即使是論文工廠也在使用ChatGPT。「觀察家報」(The Observer)詢問各校,這些大學表示他們計畫開除使用ChatGPT的學生。
 倫敦帝國學院電腦專家、學術誠信研究員蘭卡斯特(Thomas Lancaster)指出,多所大學為此感到驚慌,若是眼前只有一份書面文件,恐難以證明它是由機器產製,因為機器人的寫作水準很高,其英文造詣通常比學生還好,而最新發布的GPT-4寫作能力肯定更加人性化。
 相較於較狹隘的AI,AGI結合人工智慧和人類認知能力,可將人類從瑣碎的工作中解放出來,開創一個創造力的新時代。去年底發表的ChatGPT可以按照指令生成論文、詩歌和電腦編碼,使AGI的夢想距離現實又邁進一步。開發商OpenAI上週又發表更強大的版本GPT-4,能夠產製文本、影像,以及法律投訴或影音遊戲等更複雜的內容,在某些程度上已達到人類表現水準。
 但專家也警告,這項重大突破可能對人類就業構成威脅,並引發難以解決的社會問題,包創作的真實性將打上問號,因為歌曲、圖像、藝術等是由軟體而不是人所創造,人類是否會迴避教育,轉而依賴軟體來代替他們思考?蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查 - 國際 - 自由時報電子報 https://bit.ly/3n7pLm8


AI技術將變得越來越危險,網路上將充斥著虛假的照片、影片和文字,使人們將無法再辨別真偽,並擔心AI技術將很快顛覆就業市場,搶走人類的工作。
 辛頓警告,在未來的某個時候,AI會變得比人類更聰明,甚至可能會演變成殺人機器,因為AI經常從他們分析的大量數據中學習到意想不到的行為。
 辛頓還表示,Google和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽,並稱若沒有某種全球性的監管,這場競賽將不會停止。但他也補充表示,這也不是絕對的,因為與核武不同,我們無法知道哪個公司或國家,是否在秘密研究AI這項技術。AI教父離開Google 警惕AI帶來潛在風險 - 自由財經 https://bit.ly/40XtmBJ


利用AI機器深度學習,在還沒有糖尿病前,就可以利用簡單易得的9項生理與檢驗數值,診斷是否有胰島素阻抗,精準預測糖尿病風險診斷是否有胰島素阻抗 中榮利用AI精準預測糖尿病風險 - 自由健康網 https://bit.ly/3LLITQJ


https://chat.openai.com/chat


「ARM vs. x86」x86架構與ARM架構的差異/ARM架構-1985年-精簡指令集機器-低成本、高效能、低耗電的特性/x86泛指一系列基於Intel 8086且向下相容的中央處理器指令集架構。最早的8086處理器於1978年由Intel推出,為16位元微處理器 @ 姜朝鳳宗族 :: 痞客邦 ::


別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖......
 ChatGPT去年底問世後風靡全球,相關話題熱議不斷。(法新社檔案照)
別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖...... - 生活 - 自由時報電子報 https://bit.ly/3LZ35Py
 2023/03/30 18:14
〔即時新聞/綜合報導〕近年人工智慧(AI)崛起,尤其美國人工智慧研究實驗室「開放人工智慧」(OpenAI)去年底推出的AI聊天機器人「ChatGPT」風靡全球,相關話題熱議不斷。對此,成功大學電機系教授、資通安全研究與教學中心主任李忠憲嘆,人工智慧耗能其實相當大,這對正面臨能源危機的世界來說,開發太多AI程式恐怕不是件好事。
 近期ChatGPT相關話題受到熱烈討論,網上也出現大量有趣的使用心得。隨著各界對人工智慧發展進程越來越關注,李忠憲今(30日)以「耗能的人工智慧」為題在臉書發文表示,過去有一項針對知名圍棋AI程式「AlphaGo」的研究顯示,該程式2016年與南韓圍棋九段棋士李世石對決期間內,消耗約200萬瓦特小時的電力,相當於一輛標準電動汽車在行駛30萬公里時所需的能源。
 李忠憲接著說:「訓練一個先進的自然語言處理(NLP)模型,例如OpenAI的GPT-2,所需的能源消耗可能與五個汽車在它們整個使用壽命期間所產生的碳排放量相當。訓練、使用都很耗能,然後大家現在一直用ChatGPT,它已經有超過一億個使用者,每天超過1300萬人使用,而且持續在成長。不只這個,還有其他很多的人工智慧應用程式,耗能真的也蠻恐怖!」成大資工系教授蘇文鈺也在李忠憲的貼文底下嘆:「所以當看到有人在(對ChatGPT)問無聊問題時我都很心痛」。別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖...... - 生活 - 自由時報電子報 https://bit.ly/3LZ35Py
-----------------------
恐被淘汰!ChatGPT之父點名「這工作」將被AI取代
 恐被淘汰!ChatGPT之父點名「這工作」將被AI取代 - 國際 - 自由時報電子報 https://bit.ly/40y1eFN
阿特曼日前受訪表示,認為「客服工作」可能會因ChatGPT的出現,在未來逐漸減少。(法新社;本報合成)
 2023/03/29 23:17
〔即時新聞/綜合報導〕美國人工智慧研究實驗室「開放人工智慧」(OpenAI)去年底推出令世界驚艷的「ChatGPT」,AI人工智慧是否可取代人類工作之話題也再次浮上檯面,而被譽為ChatGPT之父的阿特曼(Sam Altman)26日受訪指出,有一種工作可能會被取代,那就是「客服工作」。
 綜合外媒報導,阿特曼日前接受Podcast主持人傅利曼(Lex Friedman)專訪時,聊到ChatGPT未來將會影響到哪些行業,阿特曼表示,「認真地思考了有哪些工作會受到巨大影響,我認為是『客戶服務』類別的工作,該領域相關的工作可能在短時間內會大量減少。」
 報導提到,阿特曼過去在受訪時,也曾被問過AI人工智慧取代人類工作的可能性。對此阿特曼也擔心「這種變化很快就到來」,但同時也認為人類擁有無限創造力,儘管原有工作被取代,未來還是能找到其他不可替代的新工作。
恐被淘汰!ChatGPT之父點名「這工作」將被AI取代 - 國際 - 自由時報電子報 https://bit.ly/40y1eFN
------------------------------------
台灣大總經理談ChatGPT 「30年後每個人都用AI」
 台灣大總經理談ChatGPT 「30年後每個人都用AI」 - 生活 - 自由時報電子報 https://bit.ly/3ZqOGyM
台灣大哥大總經理林之晨。(記者丁奕攝)
 2023/03/29 21:20
〔記者丁奕/台北報導〕台灣大哥大總經理林之晨今出席記者會,會後談及ChatGPT,他認為ChatGPT不只是一個產業,而是一個巨大的「典範轉移」,就像是有網路與沒網路的差別,他認為生成式AI就像網路一樣,短短30年,幾乎每一個人都會使用網路,而30年後,AI也會深入到生活的方方面面。
 林之晨表示,沒網路時,要找資料還需要跑去圖書館,如今已不再需要,而沒有AI時,學習碰到困難需要去問老師或同事,而ChatGPT就像一個「學霸同事」,有問題都可以問直接問它。
 林之晨指出,現在的人需要學習去利用AI,利用AI在生活與學業上,就像是1994年網路出現一樣,至今不到30年,全世界的人幾乎都已經會用網路,因此他也認為,未來20至30年生成式AI將充斥於生活中的方方面面。
 台灣大也會想辦法利用AI,林之晨指出,未來客服就有可能採用AI,不過30年前也想不到有網紅、部落客這種行業,因此他也相信未來會出現更多目前無法想像的職業台灣大總經理談ChatGPT 「30年後每個人都用AI」 - 生活 - 自由時報電子報 https://bit.ly/3ZqOGyM
----------------------------
童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本
 和碩董事長童子賢(右)與AI專家李飛飛教授(左)等人對談。(記者吳柏軒攝)
童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本 - 生活 - 自由時報電子報 https://bit.ly/3JOvg0U
 2023/03/23 20:53
〔記者吳柏軒/台北報導〕ChatGPT當道,國科會今(23)日下午舉辦「AI進行式-技術展望與產業應用論壇」,產官學專家齊聚暢聊,國際人工智慧(AI)專家、史丹佛大學教授李飛飛闡述研究,但重申自己是母親跟老師,AI仍要「以人為本」,和碩董事長童子賢雖認為目前AI還不會取代人類,但坦言害怕「強AI」;主委吳政忠強調將推動AI政策及法規。
 吳政忠說,AI未來會滲透每一個人生活,發展技術跟產業同時,人文社會影響也要同步啟動調查,台灣相關法律有點晚,但不嫌太晚,去年底ChatGPT推出讓很多國家措手不及,面對AI提早進入生活,台灣政府理解必須善加利用,在倫理、法律及人文社會影響都要納入政策,希望產官學一起努力。
 國際AI專家、史丹佛大學資訊科學首任紅衫講座教授李飛飛今天也暢談AI發展,從機器學習的歷史談到深度學習革命,與如何訓練AI看見、訓練AI看人類所看不見、訓練AI看見人類想要看見等。她也參與圓桌論壇,同意AI焦慮,科技創造與教育者都要深刻思考此工具,尤其民主社會最大基礎是「信任」,生成式AI是否帶來事實與非事實信息很難判斷,AI仍要「以人為本」,「最終破壞世界的不是AI,而是人」
 和碩董事長童子賢說,AI帶來期待,如自己希望會走路整理地毯的掃地機器人,但害怕「強AI」如電影《魔鬼終結者》跑出來,只是科技進展有太陽就有投射的黑暗,目前AI相信還沒到非常成熟,希望AI停留在輔助人類,不要最後發展成取代人類,讓AI為人類提供更高效率、品質與幸福生活。
 iKala共同創辦人暨執行長程世嘉認為,沒有場域,AI就沒有用,且AI非常開放,當取得人工智能的成本近乎為0時,就可把AI當成水、電一樣,如人類使用電只要插插頭而不再想整個電網運作,讓AI開啟更多可能性,並用自然舒服方式跟電腦互動,但也認為各國對AI技術監管也會加重。
 PChome執行長張瑜珊則說,電商最直接面對消費者,AI雖可發展,但仍需要有人跟客戶或供應商深層溝通,但AI可協助上架文案,或自動生成美食圖像在餐桌上等,而針對工作取代問題,內部有較多同仁,將輔導其擁更多AI技能,取代重複工作,但也同樣擔憂AI自動生成內容,延伸「照騙」或「聲騙」問題待解。
 美國史丹佛以人為本人工智慧研究院院長、ImageNet的首席科學家和首席研究員、AI4ALL聯合創始人及主席的華裔科學家李飛飛。(記者吳柏軒攝)
  人工智慧(AI)領域國際知名學者、美國史丹佛大學資訊科學首席紅衫講座教授李飛飛說,AI最終還是以人為本,「AI時代,做人最重要」。(記者吳柏軒攝)  科會Taiwan S&T Hub舉辦「AI進行式-技術展望與產業應用論壇」」,主委吳政忠(右3)邀請美國史丹佛大學教授李飛飛(左3)分享研究心得,並有和碩董事長童子賢(右2)、iKala 共同創辦人暨執行長程世嘉(左2)、PChome執行長張瑜珊(右1)等參與座談,大聊ChatGPT時代下,AI對人類的影響。(記者吳柏軒攝)童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本 - 生活 - 自由時報電子報 https://bit.ly/3JOvg0U


馬斯克、班吉歐聯名呼籲為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月 | T客邦 https://bit.ly/3M5h3zj
在這封聯名公開信中,他們提出了三個方面的需求和建議舉措: 
 首先、立即暫停比GPT-4更先進的AI系統訓練,時間至少是6個月。 
 這一要求是涵蓋了所有的人工智慧實驗室,尤其是這當中的關鍵參與者。 
 並且暫停舉措必須是公開、可驗證的。如果AI機構不能立即實施,那麼政府應該介入強制執行。 
 其次,利用這段時間,開發和實施一套共用安全協議,用於高級人工智慧設計和開發,並由獨立外部專家進行嚴格審核和監督。 
 信中還明確指出:這並不意味著總體限制一般人工智慧的發展,而是從目前危險的競技中退後一步,避免更強大、更不可預測的黑箱模型和新興能力出現。 
 人工智慧的研究和發展,應該重新聚焦於朝著更準確、安全、可信可解釋等的AI系統開發工作上來。 
 第三,開發者應同政策制定者一道,共同加速開發人工智慧治理系統。這個治理系統至少包括: 
 專門負責人工智慧的全新監管機構;
監督和跟蹤高能力的AI系統和大型算力池;
注明出處和浮水印系統,説明區分真實和合成、以及跟蹤模型洩露;
健全的審計和認證生態系統;
對人工智慧造成的傷害進行責任認定;
為人工智慧安全技術研究提供強大的公共資金;
以及提前預防人工智慧導致的巨大經濟政治破壞。
最後,還想像了一下未來。 
 在成功創造出強大的AI系統之後,我們現在享受一個「人工智慧夏天」。但這個夏天希望能夠漫長一點,需考慮到所有人的利益,並給社會一個適應的機會,暫停使用一些危害系統;而不是毫無準備地衝進「秋天」。 
 相關文章: ChatGPT歷史溯源:從1950年代講起,談聊天機器人的前世今生
叫OpenAI和阿特曼收歛一點
這麼做的原因,無非就是忌憚當前GPT-4的強大。 
 畢竟連OpenAI老闆阿特曼自己也承認:AI確實可能殺死人類。
 為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月
 在公開信的最前面,他們費了一番功夫解釋了這麼做的原因,其中不乏一些內涵OpenAI和老闆阿特曼的話。 
 例如,正如廣泛研究和頂級人工智慧實驗室所承認的那樣,能與人類競爭的AI系統會對社會和人類構成風險。 
 本該進行謹慎的規劃和管理沒有進行,反而演變成一場失控的AI競速。沒有人——甚至他們的創造者——能夠理解、預測或可靠地控制。 
 甚至還發四連問: 
 我們應該讓機器人在我們的資訊管道中充斥著宣傳和不真實嗎?
我們是否應該把所有的工作都自動化,包括那些有成就感的工作?
我們是否應該開發非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們並取代我們?
我們是否應該冒著失去對我們文明的控制的風險?
他們認為這樣的決定決不能委託給未經選舉的技術領袖。  
 而OpenAI最近關於人工通用智慧的聲明提到「獨立的審查」、「限制先進模型的運算增長速度」等方案,他們認為應該現在就開始進行。 
 截至現在,這個公開信已有1100+的AI從業者簽署,其中不乏一些知名的大咖。 
 學界包括柏克萊電腦系教授Stuart Russell、Hopfield網路發明者John J Hopfield,2007年圖靈獎得主Joseph Sifakis、IEEE電腦先驅UML之父Grady Booch、沃爾夫物理學獎得主史丹佛教授Pablo Jarillo-Herrero等。 
 產業界有蘋果聯合創始人Steve Wozniak、Stable Diffusion背後公司Stability AI首席執行長Emad Mostaque,多位Deepmind工程師等。 
為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月 | T客邦 https://bit.ly/3M5h3zj


國教院用AI為國考試題「把脈」 近半考科有疑義題
 國教院用AI為國考「把脈」 ,近半考科有疑義題,建議測驗單位應建立數據庫與監控機制。(考試院提供)
  2023/04/28 06:19
獨家》國教院用AI為國考試題「把脈」 近半考科有疑義題 - 生活 - 自由時報電子報 https://bit.ly/429AjRb
 〔記者林曉雲/台北報導〕教育部國家教育研究院為國家考試「把脈」,善用AI科技力量,完成疑義題現況與影響分析等,發現近半(48.14%)考科有疑義題,其中9成考科疑義題為3題(內),透過R平台與相關套件進行建構,逐步導入和銜接考選部現行系統中,協助測驗單位建立數據庫與監控機制,以保障每年約40萬名考生權益。
 國教院長林崇熙與考選部長許舒翔合作,以國教院測驗及評量研究中心提供專業協助,針對「國家考試測驗式試題答案更正率,對測驗效度與信度之影響─以專技醫事人員考試為例」、「國家考試相似題比對政策合宜性執行方法之研究」、「公務人員考試應試科目與題型妥適性之探討」進行10個月任務型研究。
 國教院分析疑義題結果,在912筆考科數中,疑義題數為0者,計有 473科,佔比51.86%,亦即有1題以上疑義題之考科有439科、佔比48.14%,而其中9成以上所舉辦之考試科目,其疑義題數大多為3題(含)內。
 此外,過去10年內,除了牙醫師(一)、牙醫師(二)、醫事檢驗師外,因歷年疑義題數偏少,多維持在固定疑義題數區間內,未出現明顯下降趨勢,其餘類科多呈現疑義題有逐年下降趨勢。
 另,研究發現,歷年疑義題更正分數,多半使應考人從「不及格」變成「及格」,並未出現使應考人從「及格」變成「不及格」,因疑義題更正分數,對應考人權益影響小。
 至於考古題爭議,多數認同「衍生題與複本題」可直接使用於考選部的考試中,但對於「相同題或部分相同題」,則多認為應避免,以利維持試題品質。
 國教院也建議考選部應依測驗類型,訂立「題型選擇」原則,受訪學者專家多認同可依照「測驗類型」進行多向度細目表內容的界定,區分為知識內容、認知歷程,進而考量實務因素,選擇適當對應的考科題型。
 最重要的是,逐年建立數據庫與資料導向的監控機制,國教院已為考選部陸續完成「疑義題現況與影響分析、試題古典參數、IRT 參數分析等程序」,透過R平台與相關套件進行建構,也逐步導入銜接考選部現行系統中,作為測驗單位建立數據庫與監控機制。
獨家》國教院用AI為國考試題「把脈」 近半考科有疑義題 - 生活 - 自由時報電子報 https://bit.ly/429AjRb


世界經濟論壇報告預估 未來5年恐消失1400萬個工作
2023/05/01 10:55世界經濟論壇報告預估 未來5年恐消失1400萬個工作 - 自由財經 https://bit.ly/3nhUMnX
  世界經濟論壇報告指出,2027年損失的工作機會可能達到1400萬個。(彭博)
 〔即時新聞/綜合報導〕全球區域性衝突不斷升高,加上人工智慧等新型態科技飛速發展,預料將對就業市場造成重大衝擊。據最新報告評估,未來5年可能消失的工作崗位多達1400萬個。
 《CNN》報導,於瑞士達沃斯舉辦的世界經濟論壇(WEF),當地時間週日發布一份調查800多家企業的報告。內容指出,企業主預估2027年可創造6900萬個新工作機會,但會消失的工作則達到8300萬個,意即損失了1400萬個職位,約是現行職位的2%。
 影響就業市場的因素非常多,像是再生能源體系會是製造工作機會的強力引擎;而經濟成長放緩和高通膨會喪失更多就業機會。
 近期成為各界焦點的人工智慧則有利有弊。一方面企業需要人力來協助裝設、管理AI工具。衍生而來的職務包括數據分析師、科學家、機械學習專家和資安專家等,預估2027年的成長率有30%。
 另一方面,由AI取代人力的情況也會隨之增加,可能會損失2600萬個資訊紀錄相關和行政職缺。報告預估,2027年這兩類性質的工作會面臨更大幅度的縮減。
 不過企業在自動化或使用AI的步調上並不如原先所想得快速。2020年企業主認為到了2025年有47%的工作可以自動化完成;對2027年的最新評估則降至42%。此外,當今企業所重視的員工技能類型,看重「高效利用AI工具的能力」甚於電腦編程
世界經濟論壇報告預估 未來5年恐消失1400萬個工作 - 自由財經 https://bit.ly/3nhUMnX


GPT-4已正式開放試用,要付費才行?ChatGPT App正式上架!Plugins開放、一次搞懂怎麼用 | 遠見雜誌 https://bit.ly/434VOn0
OpenAI在ChatGPT官網中,讓有訂閱ChatGPT Plus的人能夠優先使用GPT-4驅動的問答。實際使用下來,在執行任務例如翻譯時,GPT-4的速度略慢於3.5,但是表現較佳,訂閱用戶可以自行選擇想要使用哪一個版本;不過,若是要啟用上述的連網與外掛功能,一定要選擇GPT-4版本。
 另外,由於微軟已將GPT-4融入自家搜尋引擎Bing中。所以你也可改用Bing的Copilot聊天服務就等同免費使用GPT-4。至於GPT-4的API,現在OpenAI開放了等待表單,未來使用者可以依照呼叫API的次數付費。在文章最後,OpenAI表示,它們期待GPT-4能夠成為改善們生活的重要工具,它們也會持續改善這個模型。
 訂閱ChatGPT Plus的用戶,可以自由選擇GPT3.5與GPT-4。取自ChatGPT對話圖/訂閱ChatGPT Plus的用戶,可以自由選擇GPT3.5與GPT-4。取自ChatGPT對話
 OpenAI官網GPT4發表網址:https://openai.com/research/gpt-4
  GPT-4有什麼最新應用?
美國非營利教育機構可汗學院(Khan Academy)宣布,推出建立於GPT-4之上的線上家教「Khanmigo」,學生可以學習不同科目,因為GPT-4大語言模型的特性,能夠生成巧妙的文字對話,有一定的創造力,同時可汗學院又巧妙設計出學習中的不同活動,例如和老師針對特定議題展開思辨、與書中或是歷史人物聊天、寫習題等應用。
 摩根史坦利(Morgan Stanley)則是將內部財富管理的相關知識與累積的洞見,餵給GPT-4模型,藉此打造專業的AI理財專員,向它提問時,AI理專會從廣袤的知識庫中尋找正確的解答。
  GPT-4與GPT-3.5相比,升級在哪?
跟過往的GPT-3.5相比,GPT-4變得更快、更好、更精準、更道德、更能夠依照使用者需求客製化,雖然它仍有侷限,例如還是會無中生有、犯下推理錯誤、被使用者的虛假陳述所騙,但在OpenAI的調校下,GPT-4的安全性有所提升,針對敏感提問如製造武器、醫療諮詢等,還有生成有問題的程式碼、會傷害人的建議,GPT-4皆有所進步。
 OpenAI指出,若只是隨意聊天,GPT-4和先前的模型沒有很大差異,當任務變得複雜時,就能見識到GPT-4的驚人之處。在回答奧林匹亞(Olympiad,國際解題競賽,各國會派出優秀學生參與)和美國大學預修課程(AP,Advanced Placement)的試題時,GPT-4模型的表現大幅勝過GPT3.5。
 舉例來說,在統一律師資格考(Uniform Bar Exam)中,GPT-3.5的PR值大約為10,但GPT-4的PR值高達90;法學院入學考試(LSAT)的結果類似,GPT-3.5 PR40,GPT-4 PR88。即使是英文以外的語言,GPT-4的表現也贏過GPT3.5和DeepMind的龍貓大語言模型(Chinchilla)、谷歌的PaLM模型。另外,美國一位身兼醫生與電腦科學家身份的柯漢(Isaac Kohane),表示在實測過後,發現GPT-4驅動的新版ChatGPT能夠答對美國醫學資格考90%以上的題目,甚至還能夠診斷出發生率僅有10萬分之一的的疾病。
 除了成績進步以外,OpenAI提升了GPT-4的可控制性(steerability)。我們平常使用的ChatGPT,說起話來溫文儒雅、客氣萬分,如今只要使用者先描述想要使用的ChatGPT風格,便能夠和換裝後的ChatGPT對話,例如蘇格拉底式的ChatGPT,就注重引導、不會直接給學生答案。
 OpenAI請GPT-4模型以蘇格拉底風格教學,絕對不能給學生答案;相反地,還要不斷提出好問題幫助學生思考。ChatGPT果真循循善誘,以提問代替直接回答。取自OpenAI官網圖/OpenAI請GPT-4模型以蘇格拉底風格教學,絕對不能給學生答案;相反地,還要不斷提出好問題幫助學生思考。ChatGPT果真循循善誘,以提問代替直接回答。取自OpenAI官網
  GPT-4看圖說故事新功能開箱
過往的GPT模型只能接受文字,然而,GTP-4這次最驚人之處,就是它不只能夠讀取文字指令,GPT-4還能夠「看懂」圖像。
能夠「看懂」圖像,代表使用者可以將圖片交給模型判讀,無論是學生常見的看圖寫作文、根據圖表解釋情況,或者是生活中可能用到的相片命名分類,還有工作會用到的圖像素材貼標,這些都難不倒GPT-4模型。
 OpenAI請GPT-4模型解釋上圖的不尋常之處,模型指出有個人在移動中的計程車後方架子上燙衣服。取自OpenAI官網圖/OpenAI請GPT-4模型解釋上圖的不尋常之處,模型指出有個人在移動中的計程車後方架子上燙衣服。取自OpenAI官網
  讓GPT-4更強大的多模態模型是什麼?為何這樣的AI模型將擁有自主權?
GPT-4之所以能學會看圖說故事,也在於它和GPT-3.5最大不同點是,它是一個多模態(MultiModel)模型。
 到底,什麼是多模態模型?事實上,OpenAI先前就曾發表類似技術,也就是同樣屬於多模態預訓練模型的CLIP(Contrastive Language-Image Pre-Training),它能夠自動分辨圖片之間的差異,即使沒有文字標籤,使用者也可以輸入文字搜尋想要的相片,完全整合了文字與圖像兩種不同的資料類型。OpenAI類似Midjourney的文字生成圖像DALLE·2,便是運用了CLIP的技術。
 谷歌大腦(Google Brain)專攻深度學習的研究總監艾克(Douglas Eck)也曾表示,多模態人工智慧模型將會帶來最新的突破;DeepMind的研究總監哈德席(Raia Hadsell)也對多模態模型感到興奮,他更大膽預言,未來我們可能見到人工智慧模型能夠自由探索、擁有自主權、跟環境互動。
 當然,GPT-4現在僅具備讀懂圖像和文字的能力,另外,它輸出的內容也只有文字,但OpenAI早就有影像生成的服務,是否要將其整合到GPT-4的新版模型中,只是OpenAI策略上的決定,要做與不做而已。
 OpenAI請GPT-4模型針對圖表,計算美國喬治亞州,和西亞(West Asia)平均每日肉品消費的加總值,且要求模型提供逐步的推理過程,這也沒有難倒它。取自OpenAI官網圖/OpenAI請GPT-4模型針對圖表,計算美國喬治亞州,和西亞(West Asia)平均每日肉品消費的加總值,且要求模型提供逐步的推理過程,這也沒有難倒它。取自OpenAI官網
 延伸閱讀
代寫論文ChatGPT,背後OpenAI揭祕
 GPT-4以後升級,還將讓AI擁有「聽覺」,甚至嗅覺與觸覺?
不過,恐怕厲害的還在後頭。現在GPT-4先從文字開始,接著進展到圖像,下一步可能是聲音,因為OpenAI在音樂生成領域有耕耘甚久;若進一步從二維平面上升到三維,例如觸覺或者嗅覺,逐步發展下去,當未來的GPT模型能夠「讀懂」不同型態的資料後,它能夠完成的任務將會更加複雜且多元,介入人類生活的空間愈來愈大。
  GPT-4缺陷:更快更好以外,還是有偏見
雖然性能提升,但OpenAI坦承,GPT-4仍有無法克服的問題,它仍會無中生有,生成的文字還是有偏見(bias),此外,和過往一樣,因為訓練資料只到2021年9月,GPT-4不知道那之後世界發生了什麼事。
 即使是簡單的推理,它還是不時出錯,使用者故意用虛假的敘述釣魚,也能讓GPT-4上當受騙,在某些事實性問題上,也有答錯的機會。幸好,在內部測試中,GPT-4正確回答問題的準確度已經有明顯提升。
 OpenAI強調,它們在開發時,有為模型的安全性做出努力。它們邀請了多位專家協助測試模型在特定領域上的應用,例如網路安全、生物風險(biorisk)、國際安全等,以免相關問答引發危險;此外,它們也在訓練過程中明確設定了減少產出有害內容的改進方向,例如更能夠避免回答自殘、製造武器、危害身體健康的相關問題。
 不過,若是有心人士想盡辦法繞過這些限制,還是有奸計得逞的機會,現在OpenAI正透過不同方法,希望減少使用者成功「越獄」、跨過模型規範的行為
ChatGPT App正式上架!Plugins開放、一次搞懂怎麼用 | 遠見雜誌 https://bit.ly/434VOn0
----------------------------------
代寫論文ChatGPT,背後OpenAI揭祕
文 / 曾子軒    2022-12-09
代寫論文ChatGPT,背後OpenAI揭祕 | 遠見雜誌 https://bit.ly/436pTT2
代寫論文ChatGPT,背後OpenAI揭祕
圖/OpenAI開發出的模型,讓人類和人工智慧越來越接近。示意圖,取自pexels
2022年11月開放使用,一週就湧進百萬用戶的聊天機器人ChatGPT,被全球網友運用發現,可以代學生寫論文、老師看不出;還能代讀研究報告選股;代回客服信函,甚至幫工程師寫程式碼,並通中英文,簡直要害文組理組一起失業。如此強大的AI工具,開發公司是OpenAI。而這間公司馬斯克竟是創辦人之一。OpenAI還有哪些厲害AI服務等著推?又為何被馬斯克半途拋棄?一文完整揭密。
在向大眾開放對話式語言模型ChatGPT以後,人工智慧研究實驗室OpenAI再度讓普羅大眾驚豔於人工智慧的威力,並且記住它的名字。這也是自2020年推出GPT-3以來,OpenAI開發出的服務又一次席捲社群,也擦亮其在人工智慧領域的領先招牌。不過,說起OpenAI的發展,這次ChatGPT的耀眼表現,並不適合用「十年寒窗苦心鑽研無人聞問,而後一夕成名」來描述,探究其發展經歷,更可說是厚積而薄發。
 究竟OpenAI是什麼來頭?為什麼創辦人之一最終退出?科技巨頭微軟看上它什麼?除了ChatGPT以外,OpenAI還開發出什麼人工智慧的有趣應用?《遠見》整理OpenAI的發展脈絡,並盤點其面向人們貼近生活的服務,帶你一次看。
 目錄
 ● OpenAI是什麼來頭?
● 科技巨頭微軟看上它什麼?
● 為什麼創辦人之一最終退出?
● 除了ChatGPT以外,OpenAI還開發出什麼人工智慧的有趣應用?
 OpenAI是什麼背景?
OpenAI是一間專攻人工智慧的企業,由非營利的OpenAI Inc.和營利的OpenAI LP所組成。其創辦人大有來頭,分別是特斯拉執行長暨推特新老闆馬斯克(Elon Musk),以及素有新創孵化器美名的創投Y Combinator前總裁亞特曼(Sam Altman)。
 根據官網所述,OpenAI希望能夠讓通用人工智慧(artificial general intelligence,簡稱為AGI)造福所有人類,致力於打造出安全且對人類有助益的AGI。
 通用人工智慧,又稱為強人工智慧(strong AI),指的是接近、甚至超越人類的人工智慧,在預想中,通用人工智慧能夠像人類一樣具備認知能力,能夠進行邏輯推理,甚至擁有自我意識,因此能夠執行不同種類的任務,用途非常廣泛。其在概念上與應用人工智慧(applied AI)或者弱人工智慧(weak AI)相對,後者的用途相對狹隘,機器僅能學習具有明確目的的任務,例如辨識人臉、下棋、醫療影像判讀、自動導航等。
 專攻西洋棋、由IBM開發的Deep Blue,還有專供圍棋、由DeepMind開發的AlphaGo,都屬於弱人工智慧。示意圖,取自pexels圖/專攻西洋棋、由IBM開發的Deep Blue,還有專供圍棋、由DeepMind開發的AlphaGo,都屬於弱人工智慧。示意圖,取自pexels
 在人工智慧的發展史上,開發出通用人工智慧,一向是電腦科學界企求卻始終無法實現的渴望。縱使近年來因為電腦運算能力的發展成功度過AI的寒冬,深度學習便宜且有效的落地,主宰人工智慧領域,但目前的眾多應用仍在弱人工智慧範疇,科幻電影裡和人類培養深厚感情的通用人工智慧,仍舊是研究者的失落聖杯。
 不過,OpenAI並沒有因此放棄,它挖掘頂尖人才、引入資金,挑戰各類的AI任務,希望能夠朝終焉之地邁進。
 科技巨頭微軟看上它什麼?
在創立之初,OpenAI屬於非營利組織,2019年時OpenAI表示,未來希望能夠增加對於運算能力和人才的投資,例如大規模的雲端運算、建造超級電腦等,同時又要平衡它對於夢想的追求,兩者都需要資金,為了增加其募資能力,OpenAI決定成立營利公司OpenAI LP。
 雖然OpenAI LP重視營利,但OpenAI當時表示,它相信自己能夠專注於發展新的AI技術,而不是將重點放在商業產品,其同時具有非營利和營利企業的組織架構,讓它不用只看眼前利潤,更能夠深入研究,藉此追求長期回報。
 延伸閱讀
藝術家將被AI取代?人工智慧畫作奪冠,連創造力都能取代人類?
除了初創時投資者與創辦人共同承諾投入的10億美元以外,2019年微軟(Microsoft)加碼投資10億美元,希望透過此次和OpenAI的合作共同發展通用人工智慧,微軟想利用OpenAI先進人工智慧研究的力量,並且相關技術其民主化。
 當然,強強聯手不只是做公益,微軟不只成為OpenAI的獨家雲端系統供應商,兩者更合作開發微軟公有雲服務Azure的超級運算技術。而後微軟也推出Azure OpenAI的相關服務,整合進Open AI開發的產品。舉例來說,行銷領域和媒體界的使用者能藉此工具,根據球賽的評論快速生成精華摘要,進而迅速發稿。不僅如此,微軟也把「望文生圖」的DALL-E加到旗下的創作服務和Microsoft 365當中,讓微軟的客戶能夠享受OpenAI的世界級產品。
 利用DALL·E生成的圖片風格各異,能寫實也能童稚或者科幻。取自DALL·E by OpenAI IG圖/利用DALL·E生成的圖片風格各異,能寫實也能童稚或者科幻。取自DALL·E by OpenAI IG
 為什麼馬斯克半路退出?
微軟投資OpenAI時勾勒出的願景如此動人:民主化人工智慧技術、共同開發對人類有益的通用人工智慧,然而,2020年9月時,OpenAI把集結科學家心血、耗費巨資開發的GPT-3獨家授權給微軟,引來外界的撻伐。雖然走向商業化之路無可厚非,但因為OpenAI曾經承諾過要做到開放,因此不是所有人都能夠接受與微軟的合作。
 事實上,創辦人之一的馬斯克在2019年2月宣布離開OpenAI,除了因為要專注於處理特斯拉和SpaceX的工程與製造問題以外,馬斯克指出,特斯拉與OpenAI在爭取相同人才,有潛在利益衝突,此外「我並不認同OpenAI團隊想做的一些事情。」
 延伸閱讀
馬斯克被綁架?布魯斯威利講俄文?Deepfake竟成廣告新寵
2月馬斯克前腳剛走,3月OpenAI便成立了營利公司OpenAI LP,這很有可能就是馬斯克所說的道不同不相為謀。也因此2020年時見到微軟取得GPT-3的獨家授權,馬斯克在推特上發文抨擊「OpenAI已被微軟俘虜」,縱使微軟技術長暨副總史考特(Kevin Scott)指出,外界仍可以持續使用GPT-3以及其他OpenAI開發出的模型,但馬斯克仍說,如此行為看起來並不像誓言「開放」的組織會做的事。
 OpenAI開發出什麼有趣的人工智慧服務?
OpenAI並沒有讓投資人和社會大眾失望,它陸續開發人工智慧創造內容(AI generated content)的模型,並且公開部份成果讓大家使用。
 以圖像和文字來說,它們分別推出了輸入文字便能輸出圖像的DALL-E,以及給定圖片後產出描述文字的CLIP。DALL-E和Midjourney相似,使用者輸入各種指令(prompt)的組合,人工智慧便會產製出精美程度甚高的圖像,雖然有時候會出現和物理世界不符的情況,例如不符合人體工學的肢體角度、動物擁有四肢以外的軀幹、出現不可能存在的光影等,但「以文產圖」的結果早已能夠符合大眾的審美。
 至於CLIP模型,是利用對比的方式,讓電腦認識不同圖片之間的差異,進而產生判斷,再依此產出文字。它的實用性也不容小覷,平常人們在整理照片時,時常要花時間整理相簿,像是將相片依照過往參加過的活動分類,甚至有些要重新命名方便日後查找。然而,真的要找特定的照片還是很艱難,因為圖片與文字並不共通,例如「自己與家中小狗的合照」或是「塞車街景」,即使在搜尋欄位中輸入小狗或者塞車,也不會跳出正確的結果。
 利用CLIP生成的模型,能夠「以文找圖」。取自Vladimir Haltakov在GitHub的開源專案Unsplash Image Search圖/利用CLIP生成的模型,能夠「以文找圖」。取自Vladimir Haltakov在GitHub的開源專案Unsplash Image Search
 以文搜圖超方便
有了CLIP模型之後,我們便能夠像Google圖片搜尋一樣,利用以文搜圖的方式查找自己的相片。聽起來不是什麼新發明,但CLIP其實已經做到了物體的識別,它不再只是傳統的「這張照片是狗」、「這張圖裡面有動物」,而是能夠正確的認出單張圖片中的不同概念,例如「狗在玩雪」、「夜晚的台北市交通打結」等。
 不只有圖像上的突破,OpenAI陸續開發了MuseNet和Jukebox,前者能夠依照使用者輸入的音樂,進一步融合不同風格的演奏,甚至增添樂器,產出新的音樂,它可以模仿莫札特與披頭四,也能用鄉村音樂或者女神卡卡的風格作曲。
 使用者可以到OpenAI的官網使用MuseNet,除了自行上傳MIDI檔案以外,也能從預設的列表選擇樂曲,接著還能改變風格與樂器。取自OpenAI圖/使用者可以到OpenAI的官網使用MuseNet,除了自行上傳MIDI檔案以外,也能從預設的列表選擇樂曲,接著還能改變風格與樂器。取自OpenAI
 Jukebox則往前跨了一步。使用者連音樂都不用上傳了,只要提供類型、音樂人、歌詞,Jukebox便能夠產出接近典型CD品質的音樂片段(即取樣 Sampling 的「樣」),時長約為4分鐘。不過,因為Jukebox產出的品質相對較高,因此訓練時間長達數小時,不像MuseNet僅花以秒計的時間便可完成。
 除了音樂以外,OpenAI也開發了將文字描述轉譯為程式碼的Codex,還有擅長玩電動的OpenAI Five。不過,OpenAI最厲害的還是其開發出的GPT相關模型,例如第三代GPT-3,它能夠理解人類語句並做出回應,同時也是這次ChatGPT的基石。
 隨著人工智慧的逐步發展,人類在「以文生圖」後反思創作、在「以字產樂」後回顧音樂風格,ChatGPT則讓人們尋找機器與人類相似與相異之處。
 有了科技巨頭的鼎力相助,我們要問的問題或許不再是有生之年能否見到通用人工智慧的到來,而要改問還要多久就會到來。到了彼時,人類應該如何自處?又要如何尋找或者肯認生而為人的價值?藉著他者,更能夠觀照自身。在科技奇點來臨之前,我們還有時間能夠不斷反思。
代寫論文ChatGPT,背後OpenAI揭祕 | 遠見雜誌 https://bit.ly/436pTT2

---------------------------------

ChatGPT問世後,不少人使用ChatGPT幫助自己工作。(美聯)
 〔財經頻道/綜合報導〕ChatGPT問世後,不少人使用ChatGPT幫助自己工作,但日、美2國的企業使用者卻出現明顯落差,根據日經亞洲報導,在日本只有7%的辦公室工作人員在工作中使用,相比之下,約5成的美國同行表示,他們依賴人工智能驅動的聊天機器人。
 總部位於東京的 MM 研究所於5月下旬進行工作中使用ChatGPT的線上調查,調查涵蓋日、美2國企業約1萬3814 名專業人士。
 調查顯示,日美企業對ChatGPT的使用認知度存在明顯差異,不論從工作中依賴程度,或者創意應用,又或者對於ChatGPT技術演進是否有興趣等,都有明顯的比重落差。
 報導指出,在日、美2國使用 ChatGPT 的企業人士,幾乎都用ChatGPT編寫樣板電子郵件文字、總結會議記錄或集結大量資訊,主要用於生成和總結文字來提高工作效率。
 美國約有一半的人依賴ChatGPT,但在日本只有7%,另外,有46%的日本企業人士表示,他們“不知道”ChatGPT,而美國則為 9%;這項調查顯示,認知度存在顯著差異。
 在創意應用方面,調查結果更加分裂,美國約有 60% 使用 ChatGPT所提出的新建議,日本比例為 25%;另外,使用ChatGPT編寫電腦程式碼,美國約有45%,日本僅14% 。
 超過 60% 的美國高階主管表示,他們對該技術有“濃厚的興趣”,日本則是不確定使用ChatGPT是否安全。日本和美國方面採用 ChatGPT 的最大障礙相似,近一半的使用者表示擔心響應精準性。ChatGPT問世後,不少人使用ChatGPT幫助自己工作。(美聯)
 〔財經頻道/綜合報導〕ChatGPT問世後,不少人使用ChatGPT幫助自己工作,但日、美2國的企業使用者卻出現明顯落差,根據日經亞洲報導,在日本只有7%的辦公室工作人員在工作中使用,相比之下,約5成的美國同行表示,他們依賴人工智能驅動的聊天機器人。
 總部位於東京的 MM 研究所於5月下旬進行工作中使用ChatGPT的線上調查,調查涵蓋日、美2國企業約1萬3814 名專業人士。
 調查顯示,日美企業對ChatGPT的使用認知度存在明顯差異,不論從工作中依賴程度,或者創意應用,又或者對於ChatGPT技術演進是否有興趣等,都有明顯的比重落差。
 報導指出,在日、美2國使用 ChatGPT 的企業人士,幾乎都用ChatGPT編寫樣板電子郵件文字、總結會議記錄或集結大量資訊,主要用於生成和總結文字來提高工作效率。
 美國約有一半的人依賴ChatGPT,但在日本只有7%,另外,有46%的日本企業人士表示,他們“不知道”ChatGPT,而美國則為 9%;這項調查顯示,認知度存在顯著差異。
 在創意應用方面,調查結果更加分裂,美國約有 60% 使用 ChatGPT所提出的新建議,日本比例為 25%;另外,使用ChatGPT編寫電腦程式碼,美國約有45%,日本僅14% 。
 超過 60% 的美國高階主管表示,他們對該技術有“濃厚的興趣”,日本則是不確定使用ChatGPT是否安全。日本和美國方面採用 ChatGPT 的最大障礙相似,近一半的使用者表示擔心響應精準性。工作中使用 ChatGPT 日、美企業差很大 - 自由財經 https://bit.ly/3NJ5FJK


ChatGPT流量連3個月下滑 今年第2次
2023/09/08 09:00
OpenAI的ChatGPT在去年11月推出後大受市場歡迎。隨著推出時間已一段時間,網站訪問量見到下滑。根據《路透》報導,根據分析公司的數據,8月ChatGPT網站訪問量為連續第3個月下降,這是今年以來的第2次連續下滑。
8月的ChatGPT網站(包含PC和手機)訪問量下降了3.2%、至14.3億次,前2個月各下降約 10%。自今年3月以來,訪問者在ChatGPT網站上花費的時間逐月下降,從平均8.7分鐘減少到8月的7分鐘。
不過,8月的不重複訪客數量(Unique Visitors),從上月的1.8億次增至1.805億次。
截至8月,美國ChatGPT流量已出現小幅增長,隨著9月新學期開始,ChatGPT的流量和使用量可望有所回升。分析機構Sametimeweb指出,學生似乎發揮了一定作用,帶動ChatGPT流量增加。
ChatGPT推出後,引發生成式人工智能學習熱潮,生成式人工智能技術是使用過去的數據來創建新內容,從編輯到編碼、或者寫論文等日常使用。ChatGPT推出後2個月(2023年1月)的月活躍用戶達到1億次。
今年5月,OpenAI在iOS系統上發布ChatGPT應用程式,這可能會消耗其網站的一些流量。在Meta的Threads推出之前,ChatGPT是有史以來增長最快的消費者應用程序,現在是世界排名前30的網站之一。ChatGPT流量連3個月下滑 今年第2次 - 自由財經 https://bit.ly/3LgFsAW

arrow
arrow
    全站熱搜

    nicecasio 發表在 痞客邦 留言(1) 人氣()