https://chat.openai.com/chat


美律師用ChatGPT寫訴狀 被抓包引述判例「攏係假」 - 國際 - 自由時報電子報


正版 ChatGPT 手機 App 怎麼玩?日常 3 種用法比 Google 更方便
2023/05/19 11:15文/記者黃肇祥  (圖/美聯社)
 ChatGPT 正式發表官方手機 App,首波由美國 iOS 用戶搶先體驗,後續開放更多國家以及 Android 平台。未來民眾隨時都能有 AI 輔助,然而 ChatGPT 在手機上到底能有哪些用途呢?以下簡單分享三招。
 ChatGPT 有許多專業的用法,可以協助撰寫程式碼,或是用於創意寫作由 AI 提供靈感等等,然而對於沒有要用於工作領域的一般民眾,也有方法能善用 ChatGPT 的分析理解能力,試著輸入較為複雜的問題,增添更多條件,能獲得比 Google 更好的答案。
 一、規劃旅程
 首先第一招是請 ChatGPT 協助「規劃旅程」,輸入複數條件,例如希望多一點室內、美食行程,以及方便搭乘大眾運輸前往,或是能夠攜帶寵物同行的地方,作為初步的旅遊行程草稿。倘若一般使用 Google 搜尋,就只能輸入特定關鍵字,再逐步去篩選資料,透過 ChatGPT 能節省許多時間。
 參考問法:「我想去新竹玩,請推薦一日遊行程,有一隻狗狗,希望是好停車的地方」
 二、翻譯摘要
 另外 ChatGPT 也支援多國語言翻譯,並且可以搭配摘要文章的能力,將想要看的外語文章複製貼上,得以命令 ChatGPT 進行 100 字的摘要,或是直接以條列式劃出重點,實際體驗會比 Google 翻譯更加方便。
 參考指令:「請給我這篇文章 3 個條列式重點,使用中文。...(複製貼上文章內容)」
 三、制定計劃
 最後則是請 ChatGPT 替你量身打造專屬計畫,涵蓋學習、鍛鍊、減重等等各個領域,比起在 Google 尋找各種教學文章,只要輸入條件 ChatGPT 就能協助篩選作法,例如實測「想要瘦身,但不愛運動,該如何著手規劃?」,ChatGPT 就會列出了注意飲食、餐前餐後日常習慣、睡眠品質等 5 個方面,讓你逐步檢視自己可以努力前進的方向。
 參考指令:「我想要瘦身,可是平常沒時間運動,又不想戒手搖飲,該怎麼辦?」
 建議讀者使用 ChatGPT 仍要搭配 Google 或是其他工具進行輔助,主要是因為 ChatGPT 資料庫停留在 2021 年,用於推薦產品、餐廳難免不符現況。記者實測請讓 ChatGPT 推薦旗艦手機,給出的型號卻是 iPhone 13 Pro Max、Samsung Galaxy S21 Ultra 等舊款手機。
 正版 ChatGPT 手機 App 怎麼玩?日常 3 種用法比 Google 更方便 - 自由電子報 3C科技 https://bit.ly/42WW1J2
-------------------------------------
 擔心機密外洩!傳蘋果頒員工禁令:不准用ChatGPT
2023/05/19 11:02
文/記者吳佩樺
  外媒報導,蘋果禁止員工使用ChatGPT。(圖/美聯社)
 不少大型企業為防止機密外洩,禁止員工使用ChatGPT,據外媒《華爾街日報》看到的一份文件及知情人士的透露,蘋果也已經限制員工不准使用ChatGPT及其他AI工具,而蘋果正在自行開發類似技術。
 文件中顯示,蘋果擔心員工使用這類AI工具,可能會洩露內部的機密數據,蘋果還告訴員工,不要使用微軟旗下代碼託管平台GitHub的Copilot,後者可以自動編寫軟體代碼。
 蘋果執行長庫克日前也被問及ChatGPT問題,他說「肯定AI力量,但要對其保持謹慎和深思熟慮,仍有許多問題需要解決。」
 事實上,企業員工使用ChatGPT進而洩露公司機密時有所聞,最近最經典的例子是三星,事件爆發後,三星立刻頒發禁令:員工被發現偷用一律開除。擔心機密外洩!傳蘋果頒員工禁令:不准用ChatGPT - 自由電子報 3C科技 https://bit.ly/436Quz6


蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查
 本月發表在教育專業期刊上的一篇論文,其實是AI機器人ChatGPT的作品,而且通過4名學者審查。(法新社檔案照)
蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查 - 國際 - 自由時報電子報 https://bit.ly/3n7pLm8
 2023/03/20 06:55
  〔編譯林雨萱/綜合報導〕通用人工智慧(artificial general intelligence,AGI)的興起,將為世界帶來天翻地覆的改變,遠勝過歷史上任何一項發明。本月發表在教育專業期刊上的一篇論文「聊天與欺騙:在ChatGpt時代確保學術完整性」(Chatting and Cheating: Ensuring Academic Integrity in the Era of ChatGPT),便描述AI工具為何招致眾多挑戰和憂慮,尤其是涉及學術誠信和抄襲。然而,這篇論文其實就是AI機器人ChatGPT產製的作品,而且經過4名學者審查,皆符合學術標準。
 英國衛報19日報導,假冒該論文主要作者的英國普利茅斯聖馬可和聖約翰大學(Plymouth Marjon University)教授康頓(Debby Cotton)表示,她希望藉此展現ChatGPT的寫作水平非常高,「這是一場軍備競賽」,AI技術發展的速度非常快,大學難以企及。
 康頓和2名也聲稱自己是論文作者的普利茅斯大學同僚,向「國際教育與教學創新」(Innovations in Education and Teaching International)雜誌的編輯揭露此事,但同儕審查(peer-reviewed)的4名學者認為,這篇論文真的是由這3名學者聯合撰寫的。
 據報導,多年來,各大學一直積極取締論文工廠向任何試圖作弊的學生,出售預先寫好的論文和其他學術作品。但現在學者懷疑,即使是論文工廠也在使用ChatGPT。「觀察家報」(The Observer)詢問各校,這些大學表示他們計畫開除使用ChatGPT的學生。
 倫敦帝國學院電腦專家、學術誠信研究員蘭卡斯特(Thomas Lancaster)指出,多所大學為此感到驚慌,若是眼前只有一份書面文件,恐難以證明它是由機器產製,因為機器人的寫作水準很高,其英文造詣通常比學生還好,而最新發布的GPT-4寫作能力肯定更加人性化。
 相較於較狹隘的AI,AGI結合人工智慧和人類認知能力,可將人類從瑣碎的工作中解放出來,開創一個創造力的新時代。去年底發表的ChatGPT可以按照指令生成論文、詩歌和電腦編碼,使AGI的夢想距離現實又邁進一步。開發商OpenAI上週又發表更強大的版本GPT-4,能夠產製文本、影像,以及法律投訴或影音遊戲等更複雜的內容,在某些程度上已達到人類表現水準。
 但專家也警告,這項重大突破可能對人類就業構成威脅,並引發難以解決的社會問題,包創作的真實性將打上問號,因為歌曲、圖像、藝術等是由軟體而不是人所創造,人類是否會迴避教育,轉而依賴軟體來代替他們思考?蝦毀?教你「別用AI作弊」竟是ChatGPT寫的 學術論文還騙過審查 - 國際 - 自由時報電子報 https://bit.ly/3n7pLm8


AI技術將變得越來越危險,網路上將充斥著虛假的照片、影片和文字,使人們將無法再辨別真偽,並擔心AI技術將很快顛覆就業市場,搶走人類的工作。
 辛頓警告,在未來的某個時候,AI會變得比人類更聰明,甚至可能會演變成殺人機器,因為AI經常從他們分析的大量數據中學習到意想不到的行為。
 辛頓還表示,Google和微軟,以及其他公司之間的競爭,將升級為一場全球性競賽,並稱若沒有某種全球性的監管,這場競賽將不會停止。但他也補充表示,這也不是絕對的,因為與核武不同,我們無法知道哪個公司或國家,是否在秘密研究AI這項技術。AI教父離開Google 警惕AI帶來潛在風險 - 自由財經 https://bit.ly/40XtmBJ


利用AI機器深度學習,在還沒有糖尿病前,就可以利用簡單易得的9項生理與檢驗數值,診斷是否有胰島素阻抗,精準預測糖尿病風險診斷是否有胰島素阻抗 中榮利用AI精準預測糖尿病風險 - 自由健康網 https://bit.ly/3LLITQJ


https://chat.openai.com/chat


「ARM vs. x86」x86架構與ARM架構的差異/ARM架構-1985年-精簡指令集機器-低成本、高效能、低耗電的特性/x86泛指一系列基於Intel 8086且向下相容的中央處理器指令集架構。最早的8086處理器於1978年由Intel推出,為16位元微處理器 @ 姜朝鳳宗族 :: 痞客邦 ::


別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖......
 ChatGPT去年底問世後風靡全球,相關話題熱議不斷。(法新社檔案照)
別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖...... - 生活 - 自由時報電子報 https://bit.ly/3LZ35Py
 2023/03/30 18:14
〔即時新聞/綜合報導〕近年人工智慧(AI)崛起,尤其美國人工智慧研究實驗室「開放人工智慧」(OpenAI)去年底推出的AI聊天機器人「ChatGPT」風靡全球,相關話題熱議不斷。對此,成功大學電機系教授、資通安全研究與教學中心主任李忠憲嘆,人工智慧耗能其實相當大,這對正面臨能源危機的世界來說,開發太多AI程式恐怕不是件好事。
 近期ChatGPT相關話題受到熱烈討論,網上也出現大量有趣的使用心得。隨著各界對人工智慧發展進程越來越關注,李忠憲今(30日)以「耗能的人工智慧」為題在臉書發文表示,過去有一項針對知名圍棋AI程式「AlphaGo」的研究顯示,該程式2016年與南韓圍棋九段棋士李世石對決期間內,消耗約200萬瓦特小時的電力,相當於一輛標準電動汽車在行駛30萬公里時所需的能源。
 李忠憲接著說:「訓練一個先進的自然語言處理(NLP)模型,例如OpenAI的GPT-2,所需的能源消耗可能與五個汽車在它們整個使用壽命期間所產生的碳排放量相當。訓練、使用都很耗能,然後大家現在一直用ChatGPT,它已經有超過一億個使用者,每天超過1300萬人使用,而且持續在成長。不只這個,還有其他很多的人工智慧應用程式,耗能真的也蠻恐怖!」成大資工系教授蘇文鈺也在李忠憲的貼文底下嘆:「所以當看到有人在(對ChatGPT)問無聊問題時我都很心痛」。別再問ChatGPT無聊問題! 李忠憲:耗能太恐怖...... - 生活 - 自由時報電子報 https://bit.ly/3LZ35Py
-----------------------
恐被淘汰!ChatGPT之父點名「這工作」將被AI取代
 恐被淘汰!ChatGPT之父點名「這工作」將被AI取代 - 國際 - 自由時報電子報 https://bit.ly/40y1eFN
阿特曼日前受訪表示,認為「客服工作」可能會因ChatGPT的出現,在未來逐漸減少。(法新社;本報合成)
 2023/03/29 23:17
〔即時新聞/綜合報導〕美國人工智慧研究實驗室「開放人工智慧」(OpenAI)去年底推出令世界驚艷的「ChatGPT」,AI人工智慧是否可取代人類工作之話題也再次浮上檯面,而被譽為ChatGPT之父的阿特曼(Sam Altman)26日受訪指出,有一種工作可能會被取代,那就是「客服工作」。
 綜合外媒報導,阿特曼日前接受Podcast主持人傅利曼(Lex Friedman)專訪時,聊到ChatGPT未來將會影響到哪些行業,阿特曼表示,「認真地思考了有哪些工作會受到巨大影響,我認為是『客戶服務』類別的工作,該領域相關的工作可能在短時間內會大量減少。」
 報導提到,阿特曼過去在受訪時,也曾被問過AI人工智慧取代人類工作的可能性。對此阿特曼也擔心「這種變化很快就到來」,但同時也認為人類擁有無限創造力,儘管原有工作被取代,未來還是能找到其他不可替代的新工作。
恐被淘汰!ChatGPT之父點名「這工作」將被AI取代 - 國際 - 自由時報電子報 https://bit.ly/40y1eFN
------------------------------------
台灣大總經理談ChatGPT 「30年後每個人都用AI」
 台灣大總經理談ChatGPT 「30年後每個人都用AI」 - 生活 - 自由時報電子報 https://bit.ly/3ZqOGyM
台灣大哥大總經理林之晨。(記者丁奕攝)
 2023/03/29 21:20
〔記者丁奕/台北報導〕台灣大哥大總經理林之晨今出席記者會,會後談及ChatGPT,他認為ChatGPT不只是一個產業,而是一個巨大的「典範轉移」,就像是有網路與沒網路的差別,他認為生成式AI就像網路一樣,短短30年,幾乎每一個人都會使用網路,而30年後,AI也會深入到生活的方方面面。
 林之晨表示,沒網路時,要找資料還需要跑去圖書館,如今已不再需要,而沒有AI時,學習碰到困難需要去問老師或同事,而ChatGPT就像一個「學霸同事」,有問題都可以問直接問它。
 林之晨指出,現在的人需要學習去利用AI,利用AI在生活與學業上,就像是1994年網路出現一樣,至今不到30年,全世界的人幾乎都已經會用網路,因此他也認為,未來20至30年生成式AI將充斥於生活中的方方面面。
 台灣大也會想辦法利用AI,林之晨指出,未來客服就有可能採用AI,不過30年前也想不到有網紅、部落客這種行業,因此他也相信未來會出現更多目前無法想像的職業台灣大總經理談ChatGPT 「30年後每個人都用AI」 - 生活 - 自由時報電子報 https://bit.ly/3ZqOGyM
----------------------------
童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本
 和碩董事長童子賢(右)與AI專家李飛飛教授(左)等人對談。(記者吳柏軒攝)
童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本 - 生活 - 自由時報電子報 https://bit.ly/3JOvg0U
 2023/03/23 20:53
〔記者吳柏軒/台北報導〕ChatGPT當道,國科會今(23)日下午舉辦「AI進行式-技術展望與產業應用論壇」,產官學專家齊聚暢聊,國際人工智慧(AI)專家、史丹佛大學教授李飛飛闡述研究,但重申自己是母親跟老師,AI仍要「以人為本」,和碩董事長童子賢雖認為目前AI還不會取代人類,但坦言害怕「強AI」;主委吳政忠強調將推動AI政策及法規。
 吳政忠說,AI未來會滲透每一個人生活,發展技術跟產業同時,人文社會影響也要同步啟動調查,台灣相關法律有點晚,但不嫌太晚,去年底ChatGPT推出讓很多國家措手不及,面對AI提早進入生活,台灣政府理解必須善加利用,在倫理、法律及人文社會影響都要納入政策,希望產官學一起努力。
 國際AI專家、史丹佛大學資訊科學首任紅衫講座教授李飛飛今天也暢談AI發展,從機器學習的歷史談到深度學習革命,與如何訓練AI看見、訓練AI看人類所看不見、訓練AI看見人類想要看見等。她也參與圓桌論壇,同意AI焦慮,科技創造與教育者都要深刻思考此工具,尤其民主社會最大基礎是「信任」,生成式AI是否帶來事實與非事實信息很難判斷,AI仍要「以人為本」,「最終破壞世界的不是AI,而是人」
 和碩董事長童子賢說,AI帶來期待,如自己希望會走路整理地毯的掃地機器人,但害怕「強AI」如電影《魔鬼終結者》跑出來,只是科技進展有太陽就有投射的黑暗,目前AI相信還沒到非常成熟,希望AI停留在輔助人類,不要最後發展成取代人類,讓AI為人類提供更高效率、品質與幸福生活。
 iKala共同創辦人暨執行長程世嘉認為,沒有場域,AI就沒有用,且AI非常開放,當取得人工智能的成本近乎為0時,就可把AI當成水、電一樣,如人類使用電只要插插頭而不再想整個電網運作,讓AI開啟更多可能性,並用自然舒服方式跟電腦互動,但也認為各國對AI技術監管也會加重。
 PChome執行長張瑜珊則說,電商最直接面對消費者,AI雖可發展,但仍需要有人跟客戶或供應商深層溝通,但AI可協助上架文案,或自動生成美食圖像在餐桌上等,而針對工作取代問題,內部有較多同仁,將輔導其擁更多AI技能,取代重複工作,但也同樣擔憂AI自動生成內容,延伸「照騙」或「聲騙」問題待解。
 美國史丹佛以人為本人工智慧研究院院長、ImageNet的首席科學家和首席研究員、AI4ALL聯合創始人及主席的華裔科學家李飛飛。(記者吳柏軒攝)
  人工智慧(AI)領域國際知名學者、美國史丹佛大學資訊科學首席紅衫講座教授李飛飛說,AI最終還是以人為本,「AI時代,做人最重要」。(記者吳柏軒攝)  科會Taiwan S&T Hub舉辦「AI進行式-技術展望與產業應用論壇」」,主委吳政忠(右3)邀請美國史丹佛大學教授李飛飛(左3)分享研究心得,並有和碩董事長童子賢(右2)、iKala 共同創辦人暨執行長程世嘉(左2)、PChome執行長張瑜珊(右1)等參與座談,大聊ChatGPT時代下,AI對人類的影響。(記者吳柏軒攝)童子賢害怕「強AI」 AI專家李飛飛:仍要以人為本 - 生活 - 自由時報電子報 https://bit.ly/3JOvg0U


馬斯克、班吉歐聯名呼籲為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月 | T客邦 https://bit.ly/3M5h3zj
在這封聯名公開信中,他們提出了三個方面的需求和建議舉措: 
 首先、立即暫停比GPT-4更先進的AI系統訓練,時間至少是6個月。 
 這一要求是涵蓋了所有的人工智慧實驗室,尤其是這當中的關鍵參與者。 
 並且暫停舉措必須是公開、可驗證的。如果AI機構不能立即實施,那麼政府應該介入強制執行。 
 其次,利用這段時間,開發和實施一套共用安全協議,用於高級人工智慧設計和開發,並由獨立外部專家進行嚴格審核和監督。 
 信中還明確指出:這並不意味著總體限制一般人工智慧的發展,而是從目前危險的競技中退後一步,避免更強大、更不可預測的黑箱模型和新興能力出現。 
 人工智慧的研究和發展,應該重新聚焦於朝著更準確、安全、可信可解釋等的AI系統開發工作上來。 
 第三,開發者應同政策制定者一道,共同加速開發人工智慧治理系統。這個治理系統至少包括: 
 專門負責人工智慧的全新監管機構;
監督和跟蹤高能力的AI系統和大型算力池;
注明出處和浮水印系統,説明區分真實和合成、以及跟蹤模型洩露;
健全的審計和認證生態系統;
對人工智慧造成的傷害進行責任認定;
為人工智慧安全技術研究提供強大的公共資金;
以及提前預防人工智慧導致的巨大經濟政治破壞。
最後,還想像了一下未來。 
 在成功創造出強大的AI系統之後,我們現在享受一個「人工智慧夏天」。但這個夏天希望能夠漫長一點,需考慮到所有人的利益,並給社會一個適應的機會,暫停使用一些危害系統;而不是毫無準備地衝進「秋天」。 
 相關文章: ChatGPT歷史溯源:從1950年代講起,談聊天機器人的前世今生
叫OpenAI和阿特曼收歛一點
這麼做的原因,無非就是忌憚當前GPT-4的強大。 
 畢竟連OpenAI老闆阿特曼自己也承認:AI確實可能殺死人類。
 為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月
 在公開信的最前面,他們費了一番功夫解釋了這麼做的原因,其中不乏一些內涵OpenAI和老闆阿特曼的話。 
 例如,正如廣泛研究和頂級人工智慧實驗室所承認的那樣,能與人類競爭的AI系統會對社會和人類構成風險。 
 本該進行謹慎的規劃和管理沒有進行,反而演變成一場失控的AI競速。沒有人——甚至他們的創造者——能夠理解、預測或可靠地控制。 
 甚至還發四連問: 
 我們應該讓機器人在我們的資訊管道中充斥著宣傳和不真實嗎?
我們是否應該把所有的工作都自動化,包括那些有成就感的工作?
我們是否應該開發非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們並取代我們?
我們是否應該冒著失去對我們文明的控制的風險?
他們認為這樣的決定決不能委託給未經選舉的技術領袖。  
 而OpenAI最近關於人工通用智慧的聲明提到「獨立的審查」、「限制先進模型的運算增長速度」等方案,他們認為應該現在就開始進行。 
 截至現在,這個公開信已有1100+的AI從業者簽署,其中不乏一些知名的大咖。 
 學界包括柏克萊電腦系教授Stuart Russell、Hopfield網路發明者John J Hopfield,2007年圖靈獎得主Joseph Sifakis、IEEE電腦先驅UML之父Grady Booch、沃爾夫物理學獎得主史丹佛教授Pablo Jarillo-Herrero等。 
 產業界有蘋果聯合創始人Steve Wozniak、Stable Diffusion背後公司Stability AI首席執行長Emad Mostaque,多位Deepmind工程師等。 
為什麼上千位專家要呼籲別再開發GPT-5了?馬斯克等人聯名:所有比GPT-4先進的系統暫停研發6個月 | T客邦 https://bit.ly/3M5h3zj


國教院用AI為國考試題「把脈」 近半考科有疑義題
 國教院用AI為國考「把脈」 ,近半考科有疑義題,建議測驗單位應建立數據庫與監控機制。(考試院提供)
  2023/04/28 06:19
獨家》國教院用AI為國考試題「把脈」 近半考科有疑義題 - 生活 - 自由時報電子報 https://bit.ly/429AjRb
 〔記者林曉雲/台北報導〕教育部國家教育研究院為國家考試「把脈」,善用AI科技力量,完成疑義題現況與影響分析等,發現近半(48.14%)考科有疑義題,其中9成考科疑義題為3題(內),透過R平台與相關套件進行建構,逐步導入和銜接考選部現行系統中,協助測驗單位建立數據庫與監控機制,以保障每年約40萬名考生權益。
 國教院長林崇熙與考選部長許舒翔合作,以國教院測驗及評量研究中心提供專業協助,針對「國家考試測驗式試題答案更正率,對測驗效度與信度之影響─以專技醫事人員考試為例」、「國家考試相似題比對政策合宜性執行方法之研究」、「公務人員考試應試科目與題型妥適性之探討」進行10個月任務型研究。
 國教院分析疑義題結果,在912筆考科數中,疑義題數為0者,計有 473科,佔比51.86%,亦即有1題以上疑義題之考科有439科、佔比48.14%,而其中9成以上所舉辦之考試科目,其疑義題數大多為3題(含)內。
 此外,過去10年內,除了牙醫師(一)、牙醫師(二)、醫事檢驗師外,因歷年疑義題數偏少,多維持在固定疑義題數區間內,未出現明顯下降趨勢,其餘類科多呈現疑義題有逐年下降趨勢。
 另,研究發現,歷年疑義題更正分數,多半使應考人從「不及格」變成「及格」,並未出現使應考人從「及格」變成「不及格」,因疑義題更正分數,對應考人權益影響小。
 至於考古題爭議,多數認同「衍生題與複本題」可直接使用於考選部的考試中,但對於「相同題或部分相同題」,則多認為應避免,以利維持試題品質。
 國教院也建議考選部應依測驗類型,訂立「題型選擇」原則,受訪學者專家多認同可依照「測驗類型」進行多向度細目表內容的界定,區分為知識內容、認知歷程,進而考量實務因素,選擇適當對應的考科題型。
 最重要的是,逐年建立數據庫與資料導向的監控機制,國教院已為考選部陸續完成「疑義題現況與影響分析、試題古典參數、IRT 參數分析等程序」,透過R平台與相關套件進行建構,也逐步導入銜接考選部現行系統中,作為測驗單位建立數據庫與監控機制。
獨家》國教院用AI為國考試題「把脈」 近半考科有疑義題 - 生活 - 自由時報電子報 https://bit.ly/429AjRb


世界經濟論壇報告預估 未來5年恐消失1400萬個工作
2023/05/01 10:55世界經濟論壇報告預估 未來5年恐消失1400萬個工作 - 自由財經 https://bit.ly/3nhUMnX
  世界經濟論壇報告指出,2027年損失的工作機會可能達到1400萬個。(彭博)
 〔即時新聞/綜合報導〕全球區域性衝突不斷升高,加上人工智慧等新型態科技飛速發展,預料將對就業市場造成重大衝擊。據最新報告評估,未來5年可能消失的工作崗位多達1400萬個。
 《CNN》報導,於瑞士達沃斯舉辦的世界經濟論壇(WEF),當地時間週日發布一份調查800多家企業的報告。內容指出,企業主預估2027年可創造6900萬個新工作機會,但會消失的工作則達到8300萬個,意即損失了1400萬個職位,約是現行職位的2%。
 影響就業市場的因素非常多,像是再生能源體系會是製造工作機會的強力引擎;而經濟成長放緩和高通膨會喪失更多就業機會。
 近期成為各界焦點的人工智慧則有利有弊。一方面企業需要人力來協助裝設、管理AI工具。衍生而來的職務包括數據分析師、科學家、機械學習專家和資安專家等,預估2027年的成長率有30%。
 另一方面,由AI取代人力的情況也會隨之增加,可能會損失2600萬個資訊紀錄相關和行政職缺。報告預估,2027年這兩類性質的工作會面臨更大幅度的縮減。
 不過企業在自動化或使用AI的步調上並不如原先所想得快速。2020年企業主認為到了2025年有47%的工作可以自動化完成;對2027年的最新評估則降至42%。此外,當今企業所重視的員工技能類型,看重「高效利用AI工具的能力」甚於電腦編程
世界經濟論壇報告預估 未來5年恐消失1400萬個工作 - 自由財經 https://bit.ly/3nhUMnX


GPT-4已正式開放試用,要付費才行?ChatGPT App正式上架!Plugins開放、一次搞懂怎麼用 | 遠見雜誌 https://bit.ly/434VOn0
OpenAI在ChatGPT官網中,讓有訂閱ChatGPT Plus的人能夠優先使用GPT-4驅動的問答。實際使用下來,在執行任務例如翻譯時,GPT-4的速度略慢於3.5,但是表現較佳,訂閱用戶可以自行選擇想要使用哪一個版本;不過,若是要啟用上述的連網與外掛功能,一定要選擇GPT-4版本。
 另外,由於微軟已將GPT-4融入自家搜尋引擎Bing中。所以你也可改用Bing的Copilot聊天服務就等同免費使用GPT-4。至於GPT-4的API,現在OpenAI開放了等待表單,未來使用者可以依照呼叫API的次數付費。在文章最後,OpenAI表示,它們期待GPT-4能夠成為改善們生活的重要工具,它們也會持續改善這個模型。
 訂閱ChatGPT Plus的用戶,可以自由選擇GPT3.5與GPT-4。取自ChatGPT對話圖/訂閱ChatGPT Plus的用戶,可以自由選擇GPT3.5與GPT-4。取自ChatGPT對話
 OpenAI官網GPT4發表網址:https://openai.com/research/gpt-4
  GPT-4有什麼最新應用?
美國非營利教育機構可汗學院(Khan Academy)宣布,推出建立於GPT-4之上的線上家教「Khanmigo」,學生可以學習不同科目,因為GPT-4大語言模型的特性,能夠生成巧妙的文字對話,有一定的創造力,同時可汗學院又巧妙設計出學習中的不同活動,例如和老師針對特定議題展開思辨、與書中或是歷史人物聊天、寫習題等應用。
 摩根史坦利(Morgan Stanley)則是將內部財富管理的相關知識與累積的洞見,餵給GPT-4模型,藉此打造專業的AI理財專員,向它提問時,AI理專會從廣袤的知識庫中尋找正確的解答。
  GPT-4與GPT-3.5相比,升級在哪?
跟過往的GPT-3.5相比,GPT-4變得更快、更好、更精準、更道德、更能夠依照使用者需求客製化,雖然它仍有侷限,例如還是會無中生有、犯下推理錯誤、被使用者的虛假陳述所騙,但在OpenAI的調校下,GPT-4的安全性有所提升,針對敏感提問如製造武器、醫療諮詢等,還有生成有問題的程式碼、會傷害人的建議,GPT-4皆有所進步。
 OpenAI指出,若只是隨意聊天,GPT-4和先前的模型沒有很大差異,當任務變得複雜時,就能見識到GPT-4的驚人之處。在回答奧林匹亞(Olympiad,國際解題競賽,各國會派出優秀學生參與)和美國大學預修課程(AP,Advanced Placement)的試題時,GPT-4模型的表現大幅勝過GPT3.5。
 舉例來說,在統一律師資格考(Uniform Bar Exam)中,GPT-3.5的PR值大約為10,但GPT-4的PR值高達90;法學院入學考試(LSAT)的結果類似,GPT-3.5 PR40,GPT-4 PR88。即使是英文以外的語言,GPT-4的表現也贏過GPT3.5和DeepMind的龍貓大語言模型(Chinchilla)、谷歌的PaLM模型。另外,美國一位身兼醫生與電腦科學家身份的柯漢(Isaac Kohane),表示在實測過後,發現GPT-4驅動的新版ChatGPT能夠答對美國醫學資格考90%以上的題目,甚至還能夠診斷出發生率僅有10萬分之一的的疾病。
 除了成績進步以外,OpenAI提升了GPT-4的可控制性(steerability)。我們平常使用的ChatGPT,說起話來溫文儒雅、客氣萬分,如今只要使用者先描述想要使用的ChatGPT風格,便能夠和換裝後的ChatGPT對話,例如蘇格拉底式的ChatGPT,就注重引導、不會直接給學生答案。
 OpenAI請GPT-4模型以蘇格拉底風格教學,絕對不能給學生答案;相反地,還要不斷提出好問題幫助學生思考。ChatGPT果真循循善誘,以提問代替直接回答。取自OpenAI官網圖/OpenAI請GPT-4模型以蘇格拉底風格教學,絕對不能給學生答案;相反地,還要不斷提出好問題幫助學生思考。ChatGPT果真循循善誘,以提問代替直接回答。取自OpenAI官網
  GPT-4看圖說故事新功能開箱
過往的GPT模型只能接受文字,然而,GTP-4這次最驚人之處,就是它不只能夠讀取文字指令,GPT-4還能夠「看懂」圖像。
能夠「看懂」圖像,代表使用者可以將圖片交給模型判讀,無論是學生常見的看圖寫作文、根據圖表解釋情況,或者是生活中可能用到的相片命名分類,還有工作會用到的圖像素材貼標,這些都難不倒GPT-4模型。
 OpenAI請GPT-4模型解釋上圖的不尋常之處,模型指出有個人在移動中的計程車後方架子上燙衣服。取自OpenAI官網圖/OpenAI請GPT-4模型解釋上圖的不尋常之處,模型指出有個人在移動中的計程車後方架子上燙衣服。取自OpenAI官網
  讓GPT-4更強大的多模態模型是什麼?為何這樣的AI模型將擁有自主權?
GPT-4之所以能學會看圖說故事,也在於它和GPT-3.5最大不同點是,它是一個多模態(MultiModel)模型。
 到底,什麼是多模態模型?事實上,OpenAI先前就曾發表類似技術,也就是同樣屬於多模態預訓練模型的CLIP(Contrastive Language-Image Pre-Training),它能夠自動分辨圖片之間的差異,即使沒有文字標籤,使用者也可以輸入文字搜尋想要的相片,完全整合了文字與圖像兩種不同的資料類型。OpenAI類似Midjourney的文字生成圖像DALLE·2,便是運用了CLIP的技術。
 谷歌大腦(Google Brain)專攻深度學習的研究總監艾克(Douglas Eck)也曾表示,多模態人工智慧模型將會帶來最新的突破;DeepMind的研究總監哈德席(Raia Hadsell)也對多模態模型感到興奮,他更大膽預言,未來我們可能見到人工智慧模型能夠自由探索、擁有自主權、跟環境互動。
 當然,GPT-4現在僅具備讀懂圖像和文字的能力,另外,它輸出的內容也只有文字,但OpenAI早就有影像生成的服務,是否要將其整合到GPT-4的新版模型中,只是OpenAI策略上的決定,要做與不做而已。
 OpenAI請GPT-4模型針對圖表,計算美國喬治亞州,和西亞(West Asia)平均每日肉品消費的加總值,且要求模型提供逐步的推理過程,這也沒有難倒它。取自OpenAI官網圖/OpenAI請GPT-4模型針對圖表,計算美國喬治亞州,和西亞(West Asia)平均每日肉品消費的加總值,且要求模型提供逐步的推理過程,這也沒有難倒它。取自OpenAI官網
 延伸閱讀
代寫論文ChatGPT,背後OpenAI揭祕
 GPT-4以後升級,還將讓AI擁有「聽覺」,甚至嗅覺與觸覺?
不過,恐怕厲害的還在後頭。現在GPT-4先從文字開始,接著進展到圖像,下一步可能是聲音,因為OpenAI在音樂生成領域有耕耘甚久;若進一步從二維平面上升到三維,例如觸覺或者嗅覺,逐步發展下去,當未來的GPT模型能夠「讀懂」不同型態的資料後,它能夠完成的任務將會更加複雜且多元,介入人類生活的空間愈來愈大。
  GPT-4缺陷:更快更好以外,還是有偏見
雖然性能提升,但OpenAI坦承,GPT-4仍有無法克服的問題,它仍會無中生有,生成的文字還是有偏見(bias),此外,和過往一樣,因為訓練資料只到2021年9月,GPT-4不知道那之後世界發生了什麼事。
 即使是簡單的推理,它還是不時出錯,使用者故意用虛假的敘述釣魚,也能讓GPT-4上當受騙,在某些事實性問題上,也有答錯的機會。幸好,在內部測試中,GPT-4正確回答問題的準確度已經有明顯提升。
 OpenAI強調,它們在開發時,有為模型的安全性做出努力。它們邀請了多位專家協助測試模型在特定領域上的應用,例如網路安全、生物風險(biorisk)、國際安全等,以免相關問答引發危險;此外,它們也在訓練過程中明確設定了減少產出有害內容的改進方向,例如更能夠避免回答自殘、製造武器、危害身體健康的相關問題。
 不過,若是有心人士想盡辦法繞過這些限制,還是有奸計得逞的機會,現在OpenAI正透過不同方法,希望減少使用者成功「越獄」、跨過模型規範的行為
ChatGPT App正式上架!Plugins開放、一次搞懂怎麼用 | 遠見雜誌 https://bit.ly/434VOn0
----------------------------------
代寫論文ChatGPT,背後OpenAI揭祕
文 / 曾子軒    2022-12-09
代寫論文ChatGPT,背後OpenAI揭祕 | 遠見雜誌 https://bit.ly/436pTT2
代寫論文ChatGPT,背後OpenAI揭祕
圖/OpenAI開發出的模型,讓人類和人工智慧越來越接近。示意圖,取自pexels
2022年11月開放使用,一週就湧進百萬用戶的聊天機器人ChatGPT,被全球網友運用發現,可以代學生寫論文、老師看不出;還能代讀研究報告選股;代回客服信函,甚至幫工程師寫程式碼,並通中英文,簡直要害文組理組一起失業。如此強大的AI工具,開發公司是OpenAI。而這間公司馬斯克竟是創辦人之一。OpenAI還有哪些厲害AI服務等著推?又為何被馬斯克半途拋棄?一文完整揭密。
在向大眾開放對話式語言模型ChatGPT以後,人工智慧研究實驗室OpenAI再度讓普羅大眾驚豔於人工智慧的威力,並且記住它的名字。這也是自2020年推出GPT-3以來,OpenAI開發出的服務又一次席捲社群,也擦亮其在人工智慧領域的領先招牌。不過,說起OpenAI的發展,這次ChatGPT的耀眼表現,並不適合用「十年寒窗苦心鑽研無人聞問,而後一夕成名」來描述,探究其發展經歷,更可說是厚積而薄發。
 究竟OpenAI是什麼來頭?為什麼創辦人之一最終退出?科技巨頭微軟看上它什麼?除了ChatGPT以外,OpenAI還開發出什麼人工智慧的有趣應用?《遠見》整理OpenAI的發展脈絡,並盤點其面向人們貼近生活的服務,帶你一次看。
 目錄
 ● OpenAI是什麼來頭?
● 科技巨頭微軟看上它什麼?
● 為什麼創辦人之一最終退出?
● 除了ChatGPT以外,OpenAI還開發出什麼人工智慧的有趣應用?
 OpenAI是什麼背景?
OpenAI是一間專攻人工智慧的企業,由非營利的OpenAI Inc.和營利的OpenAI LP所組成。其創辦人大有來頭,分別是特斯拉執行長暨推特新老闆馬斯克(Elon Musk),以及素有新創孵化器美名的創投Y Combinator前總裁亞特曼(Sam Altman)。
 根據官網所述,OpenAI希望能夠讓通用人工智慧(artificial general intelligence,簡稱為AGI)造福所有人類,致力於打造出安全且對人類有助益的AGI。
 通用人工智慧,又稱為強人工智慧(strong AI),指的是接近、甚至超越人類的人工智慧,在預想中,通用人工智慧能夠像人類一樣具備認知能力,能夠進行邏輯推理,甚至擁有自我意識,因此能夠執行不同種類的任務,用途非常廣泛。其在概念上與應用人工智慧(applied AI)或者弱人工智慧(weak AI)相對,後者的用途相對狹隘,機器僅能學習具有明確目的的任務,例如辨識人臉、下棋、醫療影像判讀、自動導航等。
 專攻西洋棋、由IBM開發的Deep Blue,還有專供圍棋、由DeepMind開發的AlphaGo,都屬於弱人工智慧。示意圖,取自pexels圖/專攻西洋棋、由IBM開發的Deep Blue,還有專供圍棋、由DeepMind開發的AlphaGo,都屬於弱人工智慧。示意圖,取自pexels
 在人工智慧的發展史上,開發出通用人工智慧,一向是電腦科學界企求卻始終無法實現的渴望。縱使近年來因為電腦運算能力的發展成功度過AI的寒冬,深度學習便宜且有效的落地,主宰人工智慧領域,但目前的眾多應用仍在弱人工智慧範疇,科幻電影裡和人類培養深厚感情的通用人工智慧,仍舊是研究者的失落聖杯。
 不過,OpenAI並沒有因此放棄,它挖掘頂尖人才、引入資金,挑戰各類的AI任務,希望能夠朝終焉之地邁進。
 科技巨頭微軟看上它什麼?
在創立之初,OpenAI屬於非營利組織,2019年時OpenAI表示,未來希望能夠增加對於運算能力和人才的投資,例如大規模的雲端運算、建造超級電腦等,同時又要平衡它對於夢想的追求,兩者都需要資金,為了增加其募資能力,OpenAI決定成立營利公司OpenAI LP。
 雖然OpenAI LP重視營利,但OpenAI當時表示,它相信自己能夠專注於發展新的AI技術,而不是將重點放在商業產品,其同時具有非營利和營利企業的組織架構,讓它不用只看眼前利潤,更能夠深入研究,藉此追求長期回報。
 延伸閱讀
藝術家將被AI取代?人工智慧畫作奪冠,連創造力都能取代人類?
除了初創時投資者與創辦人共同承諾投入的10億美元以外,2019年微軟(Microsoft)加碼投資10億美元,希望透過此次和OpenAI的合作共同發展通用人工智慧,微軟想利用OpenAI先進人工智慧研究的力量,並且相關技術其民主化。
 當然,強強聯手不只是做公益,微軟不只成為OpenAI的獨家雲端系統供應商,兩者更合作開發微軟公有雲服務Azure的超級運算技術。而後微軟也推出Azure OpenAI的相關服務,整合進Open AI開發的產品。舉例來說,行銷領域和媒體界的使用者能藉此工具,根據球賽的評論快速生成精華摘要,進而迅速發稿。不僅如此,微軟也把「望文生圖」的DALL-E加到旗下的創作服務和Microsoft 365當中,讓微軟的客戶能夠享受OpenAI的世界級產品。
 利用DALL·E生成的圖片風格各異,能寫實也能童稚或者科幻。取自DALL·E by OpenAI IG圖/利用DALL·E生成的圖片風格各異,能寫實也能童稚或者科幻。取自DALL·E by OpenAI IG
 為什麼馬斯克半路退出?
微軟投資OpenAI時勾勒出的願景如此動人:民主化人工智慧技術、共同開發對人類有益的通用人工智慧,然而,2020年9月時,OpenAI把集結科學家心血、耗費巨資開發的GPT-3獨家授權給微軟,引來外界的撻伐。雖然走向商業化之路無可厚非,但因為OpenAI曾經承諾過要做到開放,因此不是所有人都能夠接受與微軟的合作。
 事實上,創辦人之一的馬斯克在2019年2月宣布離開OpenAI,除了因為要專注於處理特斯拉和SpaceX的工程與製造問題以外,馬斯克指出,特斯拉與OpenAI在爭取相同人才,有潛在利益衝突,此外「我並不認同OpenAI團隊想做的一些事情。」
 延伸閱讀
馬斯克被綁架?布魯斯威利講俄文?Deepfake竟成廣告新寵
2月馬斯克前腳剛走,3月OpenAI便成立了營利公司OpenAI LP,這很有可能就是馬斯克所說的道不同不相為謀。也因此2020年時見到微軟取得GPT-3的獨家授權,馬斯克在推特上發文抨擊「OpenAI已被微軟俘虜」,縱使微軟技術長暨副總史考特(Kevin Scott)指出,外界仍可以持續使用GPT-3以及其他OpenAI開發出的模型,但馬斯克仍說,如此行為看起來並不像誓言「開放」的組織會做的事。
 OpenAI開發出什麼有趣的人工智慧服務?
OpenAI並沒有讓投資人和社會大眾失望,它陸續開發人工智慧創造內容(AI generated content)的模型,並且公開部份成果讓大家使用。
 以圖像和文字來說,它們分別推出了輸入文字便能輸出圖像的DALL-E,以及給定圖片後產出描述文字的CLIP。DALL-E和Midjourney相似,使用者輸入各種指令(prompt)的組合,人工智慧便會產製出精美程度甚高的圖像,雖然有時候會出現和物理世界不符的情況,例如不符合人體工學的肢體角度、動物擁有四肢以外的軀幹、出現不可能存在的光影等,但「以文產圖」的結果早已能夠符合大眾的審美。
 至於CLIP模型,是利用對比的方式,讓電腦認識不同圖片之間的差異,進而產生判斷,再依此產出文字。它的實用性也不容小覷,平常人們在整理照片時,時常要花時間整理相簿,像是將相片依照過往參加過的活動分類,甚至有些要重新命名方便日後查找。然而,真的要找特定的照片還是很艱難,因為圖片與文字並不共通,例如「自己與家中小狗的合照」或是「塞車街景」,即使在搜尋欄位中輸入小狗或者塞車,也不會跳出正確的結果。
 利用CLIP生成的模型,能夠「以文找圖」。取自Vladimir Haltakov在GitHub的開源專案Unsplash Image Search圖/利用CLIP生成的模型,能夠「以文找圖」。取自Vladimir Haltakov在GitHub的開源專案Unsplash Image Search
 以文搜圖超方便
有了CLIP模型之後,我們便能夠像Google圖片搜尋一樣,利用以文搜圖的方式查找自己的相片。聽起來不是什麼新發明,但CLIP其實已經做到了物體的識別,它不再只是傳統的「這張照片是狗」、「這張圖裡面有動物」,而是能夠正確的認出單張圖片中的不同概念,例如「狗在玩雪」、「夜晚的台北市交通打結」等。
 不只有圖像上的突破,OpenAI陸續開發了MuseNet和Jukebox,前者能夠依照使用者輸入的音樂,進一步融合不同風格的演奏,甚至增添樂器,產出新的音樂,它可以模仿莫札特與披頭四,也能用鄉村音樂或者女神卡卡的風格作曲。
 使用者可以到OpenAI的官網使用MuseNet,除了自行上傳MIDI檔案以外,也能從預設的列表選擇樂曲,接著還能改變風格與樂器。取自OpenAI圖/使用者可以到OpenAI的官網使用MuseNet,除了自行上傳MIDI檔案以外,也能從預設的列表選擇樂曲,接著還能改變風格與樂器。取自OpenAI
 Jukebox則往前跨了一步。使用者連音樂都不用上傳了,只要提供類型、音樂人、歌詞,Jukebox便能夠產出接近典型CD品質的音樂片段(即取樣 Sampling 的「樣」),時長約為4分鐘。不過,因為Jukebox產出的品質相對較高,因此訓練時間長達數小時,不像MuseNet僅花以秒計的時間便可完成。
 除了音樂以外,OpenAI也開發了將文字描述轉譯為程式碼的Codex,還有擅長玩電動的OpenAI Five。不過,OpenAI最厲害的還是其開發出的GPT相關模型,例如第三代GPT-3,它能夠理解人類語句並做出回應,同時也是這次ChatGPT的基石。
 隨著人工智慧的逐步發展,人類在「以文生圖」後反思創作、在「以字產樂」後回顧音樂風格,ChatGPT則讓人們尋找機器與人類相似與相異之處。
 有了科技巨頭的鼎力相助,我們要問的問題或許不再是有生之年能否見到通用人工智慧的到來,而要改問還要多久就會到來。到了彼時,人類應該如何自處?又要如何尋找或者肯認生而為人的價值?藉著他者,更能夠觀照自身。在科技奇點來臨之前,我們還有時間能夠不斷反思。
代寫論文ChatGPT,背後OpenAI揭祕 | 遠見雜誌 https://bit.ly/436pTT2

    全站熱搜

    nicecasio 發表在 痞客邦 留言(0) 人氣()