Ai August 1, 2024 Has the AI bubble burst? Wall Street wonders if artificial intelligence will ever make money Has the AI bubble burst? Wall Street wonders if artificial intelligence will ever make money ] New York CNN — There’s been one big question on the minds of Wall Streeters this tech earnings season: When will anyone start making actual money from artificial intelligence? In the 18 months since ChatGPT kicked off an AI arms race, tech giants have promised that the technology is poised to revolutionize every industry and used it as justification for spending tens of billions of dollars on data centers and semiconductors needed to run large AI models. Compared to that vision, the products they’ve rolled out so far feel somewhat trivial — chatbots with no clear path to monetization, cost saving measures like AI coding and customer service, and AI-enabled search that sometimes makes things up.
Ai August 1, 2024 OpenAI 可能在一年內面臨破產 OpenAI 是人工智慧領域的領先力量,正在努力應對可能威脅其未來的重大財務挑戰。據報道,儘管得到了微軟的大力支持,該公司預計 2024 年仍將面臨 50 億美元的虧損。 營運成本不斷上升 經營人工智慧聊天機器人 ChatGPT 的成本極其昂貴,光是硬體每天就花費約 70 萬美元。隨著模型變得更加複雜,這個數字預計還會上升。 到了2024 年,OpenAI 在人工智慧培訓和人員配備上的總支出預計將分別達到70 億美元和15 億美元。 27 億美元。 SCOOP:根據 @theinformation 的分析,OpenAI 今年可能會損失 50 億美元,並且可能會在 12 個月內耗盡現金,除非他們籌集更多美元。 投資人應該問:他們的護城河是什麼?獨特技術?當 Meta 免費贈送類似技術時,他們的獲利途徑是什麼?他們… pic.twitter.com/i5EkvEFEQd — 加里·馬庫斯 (@GaryMarcus) 2024 年 7 月 24 日 收入、財務壓力 儘管每年從 ChatGPT 獲得約 20 億美元收入,並從語言模型存取費中獲得額外 10 億美元收入,但 OpenAI 的收入仍不足以支付其不斷飆升的營運成本。 該公司的估值超過 800 億美元,由於企業對其生成式人工智慧工具的興趣日益濃厚,投資者希望到 2025 年收入將增加一倍以上。 OpenAI 透過七輪融資籌集了超過 110 億美元,並受益於微軟 Azure 服務的折扣優惠。 儘管如此,該公司的營運已接近其極限,其 35 萬台伺服器中有 29 萬台專用於 ChatGPT。 未來展望 OpenAI 的財務困境引發了人們對其在沒有額外資金的情況下維持營運能力的擔憂。該公司必須在未來 12 個月內獲得更多資金以避免破產。
Ai July 23, 2024 AI應用鬥智賽 恭喜本次得獎團隊, 以下為2023年AI應用鬥智賽得獎團隊清冊,我們將再和團隊聯絡人聯繫,進行後續事項告知,請留意您的Email信箱,非常謝謝。 感謝您的參與 出題廠商名稱 題目名稱 解題團隊名稱 結果 1 台灣曼寧工程顧問股份有限公司 運用氣象環境數據地貌空拍影像建構河川揚塵三日預報及自動警示系統 Prophet AI 金獎 2 高雄市政府警察局交通警察大隊 利用行車影像換算碰撞時車速 Hyson.AI 銀獎 3 吉創整合有限公司 利用每日衛星圖資自動辨識出共軍大型武器並留下座標紀錄 安慶天基團隊 銀獎 4 高雄市政府警察局 運用街頭監控影像進行AI分析以建置暴力衝突案件預警平台 AI因由夫來 銅獎 5 長庚醫療財團法人高雄長庚紀念醫院(腦神經外科) eHydro以影像辨識結合病患背景參數建立水腦症數位判別系統 美索研發 銅獎 6 泓泰環保科技股份有限公司 透過即時影像辨識偵測工廠煙霧排放之警示系統 瑞艾科技有限公司 銅獎 7 義大醫療財團法人義大醫院 以人工智慧提升極早期無顯影劑腦部電腦斷層缺血性腦中風診斷率 國際創新生醫AI 優勝 8 義大醫療財團法人義大癌治療醫院 利用多角度經胸前心臟超音波影像建立左心室射出分率自動計算及心包積水嚴重度自動分級系統 有聲力量 優勝 9 高雄市政府警察局交通警察大隊 利用行車影像換算碰撞時車速 CHT-IVS 優勝 10 嘉義市政府智慧科技處應用服務科 於APP上使用AI語意辦識建構高齡友善語音功能服務 葛林的AI 優勝 11 國防醫學院公共衛生學系 建立AI模型預測小分子藥物對乳腺癌影響之基因調控 NCKU Algorithm Avenger 優勝 12 薩泰爾娛樂股份有限公司 透過AI辨識比對主要媒體平台之侵權影片 馬訓冷凝 優勝 13 樂享網科技有限公司 透過影像辨識錦鯉魚生物特徵對應品種圖鑑 Skylines天際線 優勝 14 國立臺北護理健康大學語言治療與聽力學系 影像辨識辨別兒童書寫文字樣態輔助治療師判讀兒童閱讀障礙亞型 AI . FREE Team 優勝 15 國立臺北護理健康大學語言治療與聽力學系 影像辨識辨別兒童書寫文字樣態輔助治療師判讀兒童閱讀障礙亞型 德塔mining 優勝 16 長庚醫療財團法人高雄長庚紀念醫院(腦神經外科) eHydro以影像辨識結合病患背景參數建立水腦症數位判別系統 國際創新生醫AI 佳作 17 集仕多股份有限公司 中文語音風格轉移技術開發 AI . FREE Team 佳作 18 行政院環境保護署環境監測及資訊處 自然水體保護者AI輔助水體水質即時診斷 NCKU Super AIGO 佳作 19 北聯研磨科技股份有限公司 利用深度學習辨識音頻以輔助判斷加工中之平面砂輪品質 AIGOing 佳作 20 晧揚環境科技股份有限公司 利用智慧客服協助使用者迅速排除iTrash使用問題 AI躺平之術 佳作 21 漢翔航空工業股份有限公司 使用影像識別技術應用於COBOT智慧化複材封膠作業 旺來 佳作 22 眾至資訊股份有限公司 依據信件表頭預測惡意電子郵件並針對新型態攻擊進行自我學習 簡單最佳化 佳作 23 國立臺北護理健康大學語言治療與聽力學系 兒童書寫樣態結果預估魏氏智力測驗6項指標統合分數 葛林的AI 佳作 24 嘉義市政府智慧科技處應用服務科 於APP上使用AI語意辦識建構高齡友善語音功能服務 NCKU AI Cool 佳作 25 嘉義市政府智慧科技處應用服務科 於APP上使用AI語意辦識建構高齡友善語音功能服務 銀齡知音 佳作 26 愛眾科技有限公司 透由飼料影像辨識推估寵物兔攝取的營養量 Phala 佳作 27 雅匠科技股份有限公司 透過AI視覺辨識偵測體態進行XR虛擬試衣間衣服推薦技術優化 NCKU AIEE 佳作 28 薩泰爾娛樂股份有限公司 透過AI辨識比對主要媒體平台之侵權影片 迪威智能 佳作 29 好會飛網路股份有限公司 透過NLP技術分辨消費者輸入的搜尋字串是否正確以提高搜尋結果之正確性 GufoLAB 佳作 30 佐翼科技有限公司 透過自動化載具定期巡檢石化工廠洩漏高風險區域主動偵測管線是否有易燃易揮發之危險氣體外洩之危機並達示警作用 Focus Force 佳作 31 好會飛網路股份有限公司 透過知識圖譜的建立提供個人化行銷讓消費者體驗升級 AI悍將 佳作 32 好會飛網路股份有限公司 透過知識圖譜的建立提供個人化行銷讓消費者體驗升級 Laplace.ai 佳作 33 冠達布業有限公司 單元圖像自動生成數位印花圖 Memorence AI 佳作 34 南仁湖育樂股份有限公司 運用AI分析決策技術於主力即食品備貨量之預測 AIGOing 佳作 35 南仁湖育樂股份有限公司 運用AI分析決策技術於主力即食品備貨量之預測 Chimes AI資料科學團隊 佳作 36 信邦電子股份有限公司 線材瑕疵檢測影像辨識導入降低人力成本與漏檢狀況 慧演智能 佳作 集仕多公司開發人工智慧AI直播主,24/7 可用性:AI 直播主可以隨時隨地進行直播,無需休息,這使得它們非常適合需要長時間運營的頻道或平台。成本效益:雖然開發和維護AI 直播主需要投入一定的成本,但相比於僱用真人主播的長期薪資和福利成本,AI 直播主的運行成本相對較低。一致性和可靠性:AI 直播主能夠保持一致的表現和語調,不會受到情緒波動、疲勞或個人問題的影響,從而提供穩定的觀看體驗。多語言支持:AI 直播主可以輕鬆地支持多種語言,並且能夠快速學習和適應新的語言和方言,從而吸引更廣泛的觀眾群體。互動性:AI 直播主可以通過自然語言處理技術與觀眾進行互動,回答問題、進行即時對話,提升觀眾的參與感和互動體驗。數據分析能力:AI 直播主可以即時分析觀眾的反饋和數據,根據觀眾的偏好和行為調整內容,提高直播的吸引力和效果。創新和多樣性:AI 直播主可以根據需要進行各種創新和定制,從而創造出多樣化的內容形式和風格,滿足不同觀眾的需求。無地域限制:AI 直播主可以在任何地方進行直播,不受地理位置的限制,從而可以觸及全球的觀眾。
Ai July 22, 2024 Hedra AI 是什麼 Hedra人工智慧簡介 Hedra AI:徹底改變影片創作 Hedra AI 是一款創新工具,旨在實現影片創作民主化,讓每個人都能輕鬆創作。借助 Hedra 的 Character-1,用戶可以透過簡單的文字和圖像生成富有表現力且可控的人類角色,這些角色會說話、唱歌甚至說唱。該工具非常適合講故事的人、內容創作者以及任何希望透過完全的創意控制將想像的世界變為現實的人。 透過利用先進的人工智慧模型,Hedra 無縫整合音訊和視覺元素,讓用戶製作長達 60 秒的影片。這個過程很簡單:從文字生成音頻,上傳或創建角色,然後將這些元素組合成一個有凝聚力的視頻。該平台支援各種圖像格式,並提供多種語音選項來匹配角色的性格,確保個性化的觸感。 使用 Hedra AI 體驗下一代故事敘述方式,讓您的創造力永無止境。免費試用並立即開始創作! Hedra 人工智慧功能 Hedra AI產品特點 概述 Hedra AI 是一個創作實驗室,它將先進的人工智慧視訊模型整合到產品中,徹底改變了人類的故事敘述方式。主要產品Character-1允許用戶在影片中產生富有表現力且可控的人類角色。該工具旨在使影片創作民主化,使任何人都可以透過完全的創意控制來想像世界、角色和故事。 主要用途及目標用戶群 Character-1 面向內容創作者、教育工作者、行銷人員以及任何對透過影片講述故事感興趣的人。它滿足了對易於訪問的高品質視訊內容創建的需求,而無需先進的技術技能或昂貴的軟體。該工具特別適用於: 內容創作者:以富有表現力的角色增強影片內容。 教育工作者:製作引人入勝的教育影片。 行銷人員:製作具有個人化角色的宣傳影片。 說故事的人:將虛構人物帶入生活。 功能詳情及操作 使用 Character-1 的逐步指南 打開海德拉網站 導航至Hedra 的 Character-1以開始影片建立過程。 產生音訊 導航至“音訊”標籤: 在提供的文字方塊中輸入文字(最多 300 個字元)。 從下拉式選單中選擇一種聲音。 點擊“生成音訊”按鈕來建立音訊。 上傳或建立角色 導航至“角色”標籤: 拖放圖像、點擊上傳或貼上剪貼簿中的圖像。 支援的格式:.jpeg、.png、.webp。 或者,在文字方塊中描述您的角色。 點選“創建”按鈕生成角色。 產生影片 導航至“視訊”選項卡: 點擊“生成影片”按鈕。 等待該過程完成。影片將出現在指定部分。 下載或分享視頻 使用“下載”按鈕將影片儲存到您的裝置。 使用“分享”按鈕直接分享影片。 技術支撐與創新點 Character-1 利用先進的人工智慧模型來產生會說話、唱歌和說唱的角色。該工具對人工智慧的創新使用可以: 富有表現力的角色:角色可以說話、唱歌和說唱,為影片添加動態元素。 可控功能:使用者可以完全控制角色的外觀和聲音。 易於使用:介面友好,適合不同技術專業程度的使用者使用。 用戶利益 節省時間:快速生成高品質視頻,無需進行大量編輯。 成本效益:無需昂貴的軟體或專業的影片製作服務。 創意控制:使用者可以完全自訂角色及其動作。 參與:創造吸引觀眾注意力的引人入勝的內容。 相容性和集成 Character-1 是一個基於網路的工具,可以透過任何具有網路連線的裝置進行存取。它支援常見的圖像格式(.jpeg、.png、.webp),並提供下載和共享影片的選項,確保與各種平台和裝置的兼容性。
Ai July 18, 2024 AIGV平台與AI智能客服 前言 本文介紹生成式影音平台 AI Generated Video Platform(AIGV)的海外應用案例,以生成式人工智慧技術,產生照片與影片降低影片製作成本。在 AIGV 影片製作過程中需要模型微調,以符合國內在地風情或是符合海外當地文化,文中以客家柿餅為例,進一步介紹模型微調技術,讓原本不認識新竹客家柿餅的原始 Stable Diffusion 模型,產出新竹客家柿餅的照片並應用於影片中;此方法可應用於海外當地文化風情的AI建模,包含臉型、服裝、妝容、物品、景色等等。最後介紹日本企業使用集仕多 AIGV 平台在新人招募影片製作的應用案例,讓原有需要人工多次出錯與重錄的時間,節省高達82%時間。 生成式影音平台 AIGV 簡介 AIGV 是 AI Generated Video 的簡稱,是透過人工智慧(AI)技術製作的影片,使用深度學習和 TTS 等技術,生成影片。AI生成的影片可以涵蓋多個領域,AI可以生成新的影像,包括人造場景、人物、物體或景觀,也可以將現有影像進行合成和剪輯,創建新的影片。這些影片可能基於文字或語音內容生成影片,例如根據故事、文章或語音指示創建視覺內容。AI可以創建人物動畫,例如生成虛構角色、卡通人物或簡單的動畫場景。AI可能用於影片編輯,包括特效、轉場和影片修剪等功能。這些技術通常用於製作電影、廣告、教育和娛樂等各個領域的影片。AI生成的影片通常能夠更快速、自動化地創建影片內容,提供更多創意的可能性,並在視覺和聽覺上為觀眾帶來更豐富的體驗。 以 AIGV 降低影片製作成本 近年來,影片製作成本一直是影片產業的一大挑戰。從拍攝、剪輯到特效製作,每個階段都需要龐大的資金投入。隨著科技的演進,人工智慧逐漸成為降低影片製作成本的一個關鍵因素。首先,人工智慧在拍攝階段的應用大大提高了效率;傳統上,拍攝一場戲需要大量的人力與時間,而且常常需要進行多次的取景,利用人工智慧的技術,可以在較短的時間內找到最佳的拍攝角度,減少不必要的重複取景,從而節省了製作時間和成本。其次,人工智慧在剪輯階段也發揮了極大的作用;傳統的影片剪輯需要專業的剪輯師,而且可能需要多次修改才能達到理想效果。透過人工智慧的影像辨識和分析技術,可以快速地找到最佳的鏡頭並進行自動剪輯。這不僅節省了人力成本,還提高了剪輯的效率和準確性。此外,人工智慧在特效製作方面也有顯著的貢獻;傳統的特效製作需要龐大的計算資源和專業的技術人才。透過深度學習和機器學習算法,人工智慧可以更迅速地生成高質量的特效,減少了專業技術人員的需求,同時降低了硬體投資成本。人工智慧的應用為影片製作帶來了效益。它不僅提高了製作效率,還降低了製作成本,使得更多的人有機會參與到影片製作的領域中。隨著人工智慧技術的不斷進步,我們可以預見未來影片製作成本將繼續被有效地降低,為影片產業帶來更多的創新和可能性。 AIGV 平台架構 AIGV 平台包含了資料處理層、引擎層與應用層,如下圖1。資料處理層處理 Image, Video, Text 相關的資料前處理與模型訓練,使用 PyTorch Framework 來實現,檢查和評估模型並進行測試影像生成,完成 Stable Diffusion 穩定擴散模型的訓練後,在測試資料集上進行驗證,以檢查其性能品質。引擎層增加更多商業邏輯,包含依據商業需求做模型 fine-tune。應用層則利用微調後的模型,整合其他資源,提供使用者服務。 AI智能客服: https://ai.choozmo.com/ai-customer/info/
Ai February 6, 2024 AI影片產生器 Google發表了全新生成式 AI 模型「Lumiere」,主攻運算難度更高的影片領域,除了可以用文字敘述來產生影片外,也可將圖片轉換成影片,甚至還能夠變換影片中的物件、視覺風格,又或是將缺失的部分進行填補。 推薦生成式影片AI專家集仕多 Lumiere 使用 STUNet (Space-Time U-Net architecture)技術,與一般影片 AI 是逐格生成的方式不同,STUNet 是在分析多張畫面之間的關聯性後,再進行內容產生,可以有效提升物件內容之間的關聯性,減少畫面扭曲、抖動、變形的狀況。 Lumiere 能夠支援多種影片生成的方式,既可以使用文字敘述,也能將靜態圖片轉為動態,也能將影片轉換成不同的視覺風格,如果不知道該如何形容所希望的風格,也能附上參考圖片,讓 AI 去仿造出有著相似元素的影片。 另外,Lumiere 也支援局部替換功能,不論是靜態或是動態,只要將想要替換的區域圈選出來,再輸入關鍵字,AI 就能自動修改該區域的內容,例如修改影片中人物的服裝,或是替角色加入額外裝飾等,都不成問題。 然而 Google 目前只是公開研發成果,還未開放給大眾使用,未來推出的日程也尚未確定,所以各位「大膽的想法」還是先收起來吧! Google新論文介紹影片生成模型Lumiere,Lumiere是一種文字轉影片擴散模型,該模型的主要目的,是創建真實、多樣且動作連貫的影片。該模型使用一種稱為時空U-Net(Space-Time U-Net,STUNet)基礎架構,官方提到,這種技術可以一次生成完整的影片長度,而不需要經過多次處理。 推薦生成式影片AI專家集仕多 近年圖像生成模型有著巨大的進步,能夠根據複雜的文字提示,生成高解析度且逼真的圖像,不過,研究人員要將文字轉圖像技術應用到文字轉影片領域面臨挑戰,主要原因在於影片中的動作複雜性。 當前文字轉影片模型仍然無法生成長時間,有著高品質視覺效果且動作逼真的影片,研究人員解釋,這些模型通常採用分階段設計,會先生成幾個關鍵畫面,接著用時間超解析度(Temporal Super-Resolution,TSR)模型,填充關鍵畫面之間的畫面。該方法雖然在記憶體效率上表現良好,但是在生成連貫動作上有其限制。 Google的新模型Lumiere則採用不同的方法,使用STUNet架構一次性生成完整時間長度的影片,該架構能夠在空間和時間上同時降採樣(Downsample)訊號,在更緊湊的時空表示中進行大部分運算,這使得Lumiere能夠生成更長時間、動作更加連貫的影片。Lumiere一次可以生成80影格,以每秒16影格來算,可產生長達5秒的影片,研究人員提到,5秒的長度超過大多數媒體作品中平均鏡頭時長。 Lumiere建立於一個經過預訓練的文字轉圖像模型之上,首先會由基礎模型在像素空間生成圖像的基本草稿,接著透過一系列空間超解析度(SSR)模型,逐步提升這些圖像的解析度和細節。不過,採用空間超解析度技術針對影片的每一個時窗進行處理,可能會在不同時窗的邊界處,產生外觀上的不一致,這是因為每個時窗都是獨立處理,所以在時窗拼接時,可能會有細節上的差異。 研究人員採用了Multidiffusion方法來解決時窗上的不連續,藉由在不同的時窗上進行空間超解析度處理,並彙整處理過的片段,以確保影片片段在視覺上的一致性和連續性。 整體來說,Lumiere是一個強大的文字轉影片擴散模型,能夠生成高品質且動作連貫的影片,可用於多種影片編輯和內容創建任務上,諸如影片修復、圖像轉影片生成,或是生成特定風格影片等。 科技的發展日新月異,幾乎每過一段時間就會有階段性的突破。近日,Google發表了全新影片生成AI模型「Lumiere」;與曾被濫用在AI換臉影片所使用的「DeepFaceLab」不同,Lumiere主打的是從無到有的生成及風格化視覺處理,它能夠靠著文字指令產生連續影片,或是上傳原有的圖片、影片,讓Lumiere產生不同風格化的作品。 推薦生成式影片AI專家集仕多 強大的運算系統,讓影片「無中生有」,或讓「圖片動起來」 Lumiere主要透過 STUNet 架構(Space-Time U-Net architecture)來生成影片,與其他現有AI影片模型截然不同的是,現有的AI影片模型大多是先建立一個關鍵影格,後再逐格合成連續影片所需的關鍵幀,但這會導致影片產生不自然或抖動。 而使用STUNet 架構的Lumiere,則是利用模型學習物體多個時、空間的移動及變化軌跡,所以能夠直接將一次性指令運算為「連續性的畫面」,讓影片顯得更加真實及流暢。 從示範影片中,我們可以看到使用者輸入「一隻帶著好笑墨鏡的狗正在開車」指令後,Lumiere所產生的真實畫面;或者,我們將名畫「戴珍珠耳環的少女」上傳,並輸入「女孩眨眼及並微笑」的指令,就可以得到動起來的名畫。 或者,丟入一張靜止的篝火或蝴蝶照片,使用「Cinemagraph」功能,圈起想要營造動態的範圍,Lumiere也能產生搖曳的火焰和撲動的翅膀。 生成風格化系列影片,或進行影片修復 Lumiere運算系統的強大可不止如此,「Stylized Generation」功能顯示,當使用者上傳了一張螢光藍的蘑菇參考圖,並輸入「跳舞的熊」指令;AI就能參考上傳素材的「材質與風格」,隨即產出與參考圖風格一致的指令作品。靠著此功能,使用者可以大量產生同系列的動圖,不論是卡通或手繪風格,都難不倒Lumiere。 如果原被遮蔽或是有損毀也沒關係,將被遮擋的影片丟進Lumiere使用「Video Inpainting」功能處理,也能夠得到運算後完好如初的修復影片。 若是上傳一段完整的影片到Lumiere,可以讓模型將你的影片主體替換材質,比如將跑步中的真人,換置為木製效果人、紙人、磚塊人、花人等。 AI使用上的爭議及道德問題? 回到大眾最關心的議題,AI影片是否會造成更多紛擾? 其實上述可見,這次的示範影片幾乎都是針對物品或是動物為主,少數人像示範中,人物面部也已模糊處理;顯然在功能部分,正面人像處理並非Lumiere的主打;且若仔細觀察Lumiere產生之影片,也仍能夠看出一些不自然的銜接或抖動。 綜觀而言,目前的AI技術在影像處理方面還沒發展到人眼看不出來的地步,且處理真人面部表情需要大量運算,即使是之前的「DeepFaceLab」不雅影片換臉風波,也需要「一定數量的正、側臉素材」作參考,並不是什麼角度的影片都能換臉;是故,單就相同事件來說,發生在Lumiere的機率並不高。 而目前的AI影片生成技術也無法取代人類作業,因若要達到相同效益,目前AI所需花費也將比人類高出數倍,並不符合經濟效益。 Lumiere的研發是為了能讓使用者輕鬆地創造影像內容,但目前Google尚未對外提供這項產品的服務。面對AI的持續進步,大眾應當將之當作「有效的輔助工具」看待,避免因不必要的恐慌及猜忌,而拒絕它們的存在。 (圖片來源:Lumiere YouTube頻道截圖、Lumiere官方網站) 原文網址:Google發表最新AI模型Lumiere!強大運算為市面上AI影片生成之突破 更多放言報導 Ai掀潮流引正負面效應?惡骨「對美醜定義不同」談台灣發展目前技術跟不上 搶救王義川大兵AI宣傳圖來自「他」之手⋯網路圖文作家惡骨曝熱血沸騰背後秘密,幽默回「要被救的人不應太帥氣」 圖像生成 AI 現在已經變得越來越強大,不過影片生成則不是那麼容易。最近 Google 發表了最新的影片生成模型,可以提供更暢順的影片。 Google 新公布的 Lumiere 影片生成模型採用了全新的 Diffusion 模型技術 STUNet,可以讓模型認知物件在時間和空間中的定位,一次生成整個影片,使動作更加流暢自然。以前的技術雖然可以逐格生成影片,不過連貫性始終有一定程度的缺陷,讓人感到不自然。
Ai January 26, 2024 AI記者服務-集仕多於嘉義首度發表 5G文化科技之旅 表藝團體與科技新創 合作商轉 聯合創新加速器、嘉義文化科技創新基地主辦5G 文化科技主題之旅,25日由嘉義縣文化觀光局藝推科率領嘉義藝文表演團隊,前往台北101參觀科文双融欣賞Re江賢二沈浸展,下午參加在林口新創園舉行的創意激盪X媒合成果;與聯合創新加速器新創團隊交流、期透過雙方合作、共同為文化加值,創造影響力,商業模式落地 開拓市場。AI新創公司集仕多之前在嘉義文化科技創新基地發表AI縣長應用,此次活動也參與發表AI記者新服務。 AI新創集仕多公司繼AI主播與AIGV平台後, 推出AI記者服務。它基於機器學習和自然語言處理技術,旨在模擬人類記者的寫作風格和邏輯思維,以生成高質量的新聞內容。這種技術使得大量的新聞稿能夠在短時間內自動生成,減輕了記者的工作負擔,同時提高了新聞生產效率。 集仕多的AI記者具有以下優勢: 融入了豐富的台灣在地用語及網路鄉民用語:使用自建的大型語言模型LLM技術,這項獨特的優化策略確保了AI生成內容的地域性和親和力,使新聞報導更容易被讀者理解和接受。 具備處理複雜數據分析的能力:集仕多AI記者能夠從龐大的信息中提煉出關鍵內容,從而為讀者提供更有深度和文化共鳴的新聞內容。 AI記者自動寫作與交互引用,可以向讀者展示,對於複雜的議題,不同的觀點和聲音都應該被傾聽和考慮。我們希望這樣的平衡報導可以為讀者提供更全面、客觀的信息,使他們能夠自行形成對這個問題的看法。尤其對負面評論或片面資訊引導的品牌與個人,更需要用這樣的技術做大量的平衡報導。對於假新聞與錯誤訊息,以AI記者技術也可做到快速的反應與處理。 在過去的一段時間裡,社交媒體上爆發了一些關於公眾人物的風波,因為被斷章取義的影片在網上廣泛流傳,影響了聲譽。被刻意選取的片斷使他的發言看起來極具爭議性。很快,這段影片在網上迅速傳播,引起了公眾的廣泛關注和論戰。然而,委託AI記者處理後,透過平衡報導讓真相浮出檯面。AI記者撰寫了好幾篇平衡的報導,將整個事件還原為真相。AI記者引用了完整的演講內容,提供了上下文,並加入了多位專業人士對事件進行分析和評論。報導突顯了媒體在報導中應保持客觀,避免斷章取義的風險,以免對公眾人物造成不公正的評價。 平衡報導的影響是巨大的。公眾開始意識到他們之前對訊息的判斷可能是基於片段的錯誤觀點,而非整個事實。報導讓聲譽逐漸恢復,而社會也開始更加謹慎地對待媒體所呈現的信息,追求更全面、客觀的觀點。 AI記者平衡報導 AI記者是什麼?AI記者的運用原理與未來面臨的挑戰 ChoozMo 集仕多 嘉縣5G創新基地「AI縣長」致詞翁章梁讚嘆
Ai January 25, 2024 AI主播 新創公司服務 - 集仕多 ChoozMo 電視台正在使用AI主播來播報新聞。問題是,我們會相信他們嗎? 一家新創公司正在開發一項由AI主播提供的新聞服務。它會顛覆電視觀眾和他們在螢幕上觀看的人之間數十年的準社會關係嗎?這段影片在世界上許多新聞頻道上看起來都不會顯得格格不入。在 22 分鐘的時間裡,各路出色的新聞主播站在鏡頭前,在社群媒體上發布的影片中講述當天的新聞。但它們都不是真的。相反,主播是由AI生成的。人工智慧技術還可以幫助將腳本和採訪從一種語言翻譯成另一種語言。 觀眾會相信人工智慧而不是人類傳遞的新聞嗎? 民調公司益普索 (Ipsos) 的一項調查顯示,對發布新聞的人的信任度已降至歷史最低點。只有 42% 的英國人信任電視新聞播報員,一年內下降了 16 個百分點。對新聞主持人作為真理獨立仲裁者的懷疑是一種不尋常的現代現象,許多人選擇從個人創作者或影響者那裡獲取新聞。 這些社群媒體明星利用與觀眾的聯繫,稱為準社會影響力。準社會關係最初由芝加哥大學的學者於 20 世紀 50 年代提出,被定義為當時晚間新聞節目的觀眾相信辦公桌後面的主播正在透過鏡頭直接與他們交談。新聞主持人不再只是告訴你新聞的記者;他們也扮演著重要的角色。他們是朋友,夜復一夜地歡迎來到你的客廳。 社群媒體影響者也採用了同樣的直接鏡頭格式,並認為個人聯繫取得了巨大的成功。多倫多大學研究數位平台和勞動力的克里斯汀·H·特蘭(Christine H Tran) 表示:「有趣的是,『類社會』標籤已經從描述個人對遠端新聞主播的親和力演變為更廣泛的東西。 」「你可以與記者或新聞 Twitch 串流媒體建立一種準社會關係,」她指的是直播視訊服務。“但顯然,你也可以與 YouTuber、歌手和 Instagram 權力情侶建立一種準社會關係。” 但人工智慧是否能夠複製個人聯繫還不太確定。莫薩姆承認:“你與人工智慧之間的聯繫永遠不會像與另一個人之間的聯繫一樣。” 然而,他認為人們不再尋求公正。“我們這樣做並不是因為我們認為機器人比人類做得更好——這太荒謬了。” 記者不閱讀新聞的想法並不罕見,即使新聞是電腦生成的想法也是如此。「當我開始從事新聞工作時,演員們正在閱讀新聞,」牛津大學路透社新聞研究所的高級研究員、BBC 前編輯尼克紐曼 (Nic Newman) 說。“人們對此表示同意。” 位於洛杉磯的 Channel 1 製作AI主播影片,這是一家由企業家 Adam Mosam 和 Scott Zabielski 創建的新創公司,他們計劃今年稍後在串流電視頻道上推出人工智慧生成的新聞。Mosam 表示:“這似乎是一個非常有趣的機會,可以透過使用人工智慧為個人定制內容來提升新聞用戶體驗。” Channel 1 是全球人工智慧新聞主持人的最新演示。在科威特,一位 名叫 Fedha 的人工智慧角色 登上了《科威特新聞》的頭條新聞。 Hermes 於 2023 年 5 月為希臘國家廣播公司 ERT 報道了這一消息 。韓國廣播公司 SBS 今年將新聞播報職責交給 了人工智慧生成的 Deepfake Zae-In,為期五個月。 台灣的新創公司集仕多ChoozMo與三立新聞合作,以主播陳斐娟作為AI虛擬人像的原型,推出三立新聞首位AI主持人「克隆娟」。ChoozMo從2020年就投入虛擬AI人像,並於2021年推出首支AI主播播報的影片,研發至今已握有獨有的技術,能夠解決虛擬AI人像各種不自然的表現,客戶包含電商、媒體等產業。而從多元的團隊背景組成,是他從過去就已埋下想進軍國際的計畫,為達到這樣的目標,團隊除了積極參加各國所辦的新創活動,爭取團隊在海外的曝光度並為後續在海外發展鋪路外,同時也不斷提升自身的AI人像製作的技術,以達到未來將此技術轉成SaaS(Software as a Service)應用程式的目標,並期待有策略型投資人的加入,一起在此領域中繼續深耕。
Ai January 21, 2024 集仕多公司創辦人梁哲瑋發表AIGV平台,資策會發布「生成式 AI 輔助之軟體開發指引」 生成式AI引發全球巨大創新熱潮,據Expert.ai調查,78%企業意識到要有效地訓練企業專用GPT是重大工程;Build Your Own GPT(BYOG)成為企業面臨的全新挑戰,資訊工業策進會軟體技術研究院(資策會軟體院)自今年8月成立「AI 133 LAB」以來,持續發展「生成式AI輔助之軟體開發指引」,培訓AIGC(人工智慧產生內容)專業訓用合一職能人才,提供AIGC專業顧問服務,期能協助產業在這波生成式AI浪潮下成功轉型。 特別於11月2日舉辦軟體院科技日「1st STI TECH DAY」,以「前瞻趨勢與新興生態佈局」為題,聚集產學研專家共同探討產業趨勢與新興生態發展。繼8月份推出「2023企業應具備的AI素養-生成式AI導入指引」後,再以軟體開發為基礎,發表「生成式AI輔助之軟體開發指引」,分享BYOG顧問服務。資策會軟體院觀察到各產業對AI應用的需求,與業者共同定義AIGC發展策略,活動展示成果,透過產學研觀點分享,展現豐沛的BYOG能量與成果。 「生成式AI輔助之軟體開發指引」,提供投入生成式AI的軟體開發者,掌握生成式AI軟體開發作法,及可能遇到的問題與解決方案,建立負責任軟體開發機制所需的步驟、制定原則、可操作的規範等,來確保企業負責任地開發和部署AIGC,提高軟體開發效率。同時,資策會提供BYOG 顧問服務,此服務係以自身推動AIGC實務經驗,提供來協助公私單位發展自主有效安全、隱私、信任、合規的所屬企業大腦。並開設創新工作坊、示範案例、實做指引、技術工具、人才訓用合一培訓計畫等服務。 資策會楊仁達副執行長表示,企業建立屬於自己的知識大腦、百業百模是下一波應用趨勢,資策會作為資訊產業的關鍵角色,持續發展BYOG專業顧問服務,透過工具指引與相應的互動機制,確保供應端與需求端都能在這個生態系中受益。 資策會軟體院蒙以亨代院長表示,AI 133 Lab作為生成式AI生態系之關鍵角色,除了與台灣微軟、台智雲等多家產業,建立夥伴關係協同合作,除在醫材、資訊電子、金融進行示範案例,也將協助中華軟協規劃相關教育訓練計畫。不僅如此,軟體院未來也將透過制定生成式AI軟體基盤及共通架構,使資服業者能在安全的環境發展應用,企業需求端也能快速地找到合適的解決方案。 資策會軟體院將持續與產學研各界合作,成為前瞻技術與宏觀生態佈局之領航者,策進資服軟體產業發展,進一步驗證先進AI顧問服務模式及產業效益擴大策略。AI 133 Lab將持續賦能資訊服務業,促成業者創建不同領域的工具與知識模型,達到快速有效數位轉型目標。近期資策會將結合產學公協會各界,培訓數百位BYOG生成式AI人才專家,為生成式AI生態系添柴火,攜手資服業幫助公私部門達到快速數位轉型優化目標。 資策會軟體院舉辦第一屆軟體科技日STI TECH DAY,邀集產官學研與會貴賓出席共同合影,圖左起:資策會軟體院蒙以亨代院長、成功大學電資學詹寶珠院長、台灣微軟公共業務事業群陳守正總經理、數位部數位產業署胡貝蒂副署長、資策會楊仁達副執行長、台灣大學電資學院陳銘憲講座教授、工研院余孝先執行副總暨總營運長、陽明交通大學資訊學院陳添福副院長、清華大學電資學院賴尚宏副院長。 資策會軟體科技日STI TECH DAY,邀請專家學者共同暢談產業共融創新生態,圖左起為:台灣微軟公共業務事業群陳守正總經理、集仕多公司梁哲瑋創辦人、AWF台灣分會施吉昇主席、台灣智慧雲端吳漢章總經理、資策會軟體院蔡澤銘副院長。 集仕多公司梁哲瑋創辦人展示AIGV平台,集仕多公司ChoozMo創造獨家的AIGV平台,讓使用者在低成本下,可以快速從文字敘述生成高品質、完全客製化的圖片、AI主播模型和影片,並可以任意變換臉型,化妝,服飾,體格、背景、光源等等風格。不用進攝影棚,不用拍攝,幫助客戶用快速的方法把想法轉換成影片。ChoozMo的AIGV平台可以搭配客製聲音學習,並支援語言22國語言,畫質高達8K。ChoozMo的AIGV平台曾經使用於台灣領導電視平台,如三立新聞和華視,並受到觀眾的歡迎。 資策會軟體科技日STI TECH DAY現場,資策會發布「生成式AI 輔助之軟體開發指引」,貴賓進行技術交流。 資策會發布「生成式 AI 輔助之軟體開發指引」 | 集仕多公司創辦人梁哲瑋發表AIGV平台
Ai January 20, 2024 生成式AI有哪些 生成式人工智慧使機器不僅可以從資料中學習,還可以產生與用於訓練它的輸入類似的新資訊。其影響是多維的,因為該技術可用於設計、音樂、藝術等。 而且,隨著生成式人工智慧在多個行業的應用,許多公司都感受到了它的影響。根據我們的生成式人工智慧報告,文字應用程式是採用生成式人工智慧工具的首要原因(40.8%)。 為了理解為什麼該技術主要用於文字應用程序,我們將詳細探討主要應用程式。這些都是: 音訊應用 文字應用 對話式應用 數據增強 視訊/視覺應用 音訊應用 生成式人工智慧音訊模型使用機器學習技術、人工智慧和演算法從現有數據中創建新的聲音。這些數據可以包括樂譜、環境聲音、錄音或語音轉聲音效果。 模型經過訓練後,他們可以創建原創且獨特的新音訊。每個模型使用不同類型的提示來產生音訊內容,可以是: 環境數據 MIDI數據 使用者即時輸入 文字提示 現有錄音 生成式人工智慧音訊模型有多種應用: 1. 數據可聽化 模型可以將複雜的數據模式轉換為聽覺表示,使分析師和研究人員可以透過聲音理解和探索數據。這可以應用於科學研究、資料視覺化和探索性資料分析。 2. 互動音訊體驗 透過創建互動式和動態音訊體驗,模型可以為虛擬實境環境和視訊遊戲產生自適應音軌。這些模型還可以響應環境變化或使用者輸入,以提高參與度和沈浸感。 3. 音樂生成與創作 對於這些模型來說,創建音樂伴奏或創作原創音樂作品很容易;他們可以從現有的作品中學習風格和模式,以產生節奏、旋律和和聲。 4. 音訊增強與修復 您可以使用生成式 AI 來恢復和增強錄音,從而減少噪音、提高聲音的整體品質並消除音損。這對於出於存檔目的的音訊恢復非常有用。 5.音效創作與合成 模型可以合成獨特且真實的聲音,例如樂器、抽象音景和環境效果。他們可以創建複製現實世界音訊或全新音訊體驗的聲音。 6. 音訊字幕和轉錄 模型有助於實現語音到文字轉錄和音訊字幕的自動化,可以大大提高播客、視訊甚至現場活動等多種媒體格式的可訪問性。 7. 語音合成與語音克隆 您可以透過產生人工智慧模型來複製某人的聲音,並創建聽起來與他們一模一樣的語音。這對於有聲書旁白、語音助理和畫外音製作非常有用。 8.個性化音訊內容 透過使用生成式 AI 模型,您可以根據個人喜好創建個人化音訊內容。其範圍可以從環境音景到個人化播放列表,甚至是人工智慧生成的播客。 生成式人工智慧音訊模型如何運作? 與其他人工智慧系統一樣,產生音訊模型在大量資料集上進行訓練以產生新的音訊輸出。具體的訓練方法可以根據每個模型的架構而有所不同。 讓我們透過探索兩種不同的模型來看看這通常是如何完成的:WaveNet 和 GAN。 波網 WaveNet 由 Google DeepMind 創建,是一種基於深度神經網路的生成音訊模型。使用擴張卷積,它透過引用先前的音訊樣本來創建高品質的音訊。它可以產生逼真的語音和音樂,在語音合成、音訊增強和音訊風格適應方面都有應用。其操作流程包括: **波形採樣。**WaveNet 從輸入波形開始,通常是一系列音訊樣本,透過多個卷積層進行處理。 **擴張卷積。**為了辨識音訊波形中的長跨依賴性,WaveNet 採用擴張卷積層。膨脹幅度設定卷積層中感受野的大小,幫助模型區分擴展模式。 **自迴歸模型。**WaveNet 以自回歸的方式連續產生音訊樣本,每個樣本都受到其前輩的影響。然後,它根據先前的樣本預測即將到來的樣本的可能性。 **抽樣機制。**為了從模型的預測機率分佈中提取音訊樣本,WaveNet 採用了 softmax 取樣方法,確保了多樣化且真實的音訊輸出。 **培訓協議。**該模型使用最大可能性估計技術進行訓練,該技術旨在增加訓練資料對於模型參數的機率。 生成對抗網路(GAN) GAN 包含兩個神經網路:一個用於建立音訊樣本的生成器和一個用於判斷其真實性的鑑別器。概述如下: