憲法法庭宣判「連身條款」合憲,38名死刑犯其他救濟程序進行中
我們想讓你知道的是
法務部說明,雖然憲法法庭判決連身條款合憲,但是因為全台灣目前38位死刑犯,都另有以其他事由聲請憲法訴訟,其中也包括「死刑是否違憲」,這些司法救濟程序都仍在進行中,因此依法無從執行死刑。
有35名死囚認為最高法院的「連身條款」違反公平審判等原則,聲請釋憲,憲法法庭今(14)日做出判決,認為連身條款與保障訴訟權並無違背,因此合憲,駁回這些死囚的聲請。不過大法官們認為,曾參與案件確定判決的法官,在該案件「再審或非常上訴」程序應自行迴避。刑事訴訟法未有相關規定違憲,但未明定法官應自行迴避再審與非常上訴程序,應於2年內修法。法務部則表示,尊重合憲判決,現行38名死囚均另有以其他事由聲請憲法訴訟,仍進行中,依法無從執行死刑。
為什麼會有這個釋憲案?
根據現行《最高法院刑事分案實施要點》規定,「原審更三審以上再行上訴之案件」及「重大刑事案件發回更審再行上訴案件」應由原承辦股辦理,即俗稱的「連身條款」,等於都要由第三次審理的最高法院法官負責審理,不再換法官。
包括黃春棋等35名死囚及前唐榮鐵工廠公司營建部經理劉政哲等人,認為最高法院分案的連身條款違反《憲法》中公平審判、審判獨立及平等原則等,陸續聲請釋憲。
此外還有一名郭姓男子因詐欺被判刑確定,聲請再審,發現再審的2名法官與確定判決的法官相同;涉嫌家暴傷害致死的黃姓男子,也發現2次再審法官與確定判決的法官相同。郭、黃均向憲法法庭聲請裁判憲法審查。相關的判決共有52案併案審理,去年舉行言詞辯論和說明會。
聲請人在言詞辯論時主張,法官參與裁判後,即產生了價值判斷,於法官曾參與通常程序的裁判,在非常上訴程序時,就應該迴避。另外,法官曾參與更審前的裁判,於更審程序時,除了可能會有預斷外,更因前、後裁判結果假如有不同,會影響「辦案維持率」的評比,涉及法官個人利害關係,所以法官應該在更審程序迴避。
大法官怎麼說?
大法官審理後,認為最高法院引發爭議的「連身條款」,並未牴觸憲法公平審判原則,也就是合憲。主要理由是因為,最高法院是我國民事及刑事訴訟之最高審判機關,於不牴觸上位階法令的範圍內,本來就可以針對所掌民事及刑事案件,自定分案規則。此與憲法權力分立原則所保障之司法自主性相符。
大法官書記廳長許辰舟也解釋,雖然聲請人認為同一案件繼續由同一法官審理,當然法官心證會相同,應該要迴避。但大法官認為,根據《刑事訴訟法》第17條規定的法官迴避事由,其中第8款規定「曾參與前審之裁判者」,目的在維護刑事被告的審級救濟利益;大法官認為,「前審」是指於刑事救濟程序中,法官於同一案件曾參與「下級審」的裁判。
然而,不論是第三審法官,曾參與同屬第三審的先前發回裁判,或第二審或第一審更審程序法官曾參與發回更審前之同審級先前裁判,均屬法官參與「同審級」的前後裁判,並非審查自己所作的先前裁判。縱然同一審級的前、後次裁判,法官有重複,各該審級在程序上仍是完整的一個審級,刑事被告並未因此喪失該審級的救濟利益。假如聲請人認為法官有偏頗,實務上有「執行職務顯有偏頗之虞」的迴避條款可以聲請法官迴避。
另外許辰舟也說明,適用更二連身條款的案件,在其前三次上訴,也還是以電腦隨機分案的方式,去決定其各次審判的承辦法官;至於適用重大連身條款的案件,至少在其第一次上訴第三審時,也是隨機分案,而非指定特定法官承辦。
許辰舟說,而在司法實務上,最高法院沒有這麼多法官的人力,可以不斷迴避,避免重複審查到同一個案件;假如改成更審都必須由不同的法官審理,終審可能會因為大多數的法官都必須迴避,導致無人可以審理的窘境。這點也是日前在說明會時,司法機關提出的論述。
不過大法官們認為,法官就同一案件,曾參與案件刑事確定裁判者,於該案「再審」或「非常上訴」程序,應自行迴避,不得參與審判。針對《刑事訴訟法》未明定法官應自行迴避再審與非常上訴程序,憲法法庭認定違反《憲法》第16條保障訴訟權意旨,要求相關機關即日起2年內須進行修法;修法完成前,新收與繫屬中案件應照本次判決辦理。
法務部:38位死刑犯仍有其他事由聲請憲法訴訟,無法執行死刑
憲法法庭宣判出爐後,法務部也透過聲明稿表示,38位死刑犯中之35人以最高法院審理第二次發回更審以後再上訴第三審民刑事案件,分由同一法官審理所引用「連身條款」違憲而聲請憲法訴訟,本次憲法判決雖認更二連身條款合憲,駁回聲請,不過因為38位死刑犯,都另有以其他事由聲請憲法訴訟,仍在進行中,依法無從執行死刑。
法務部表示,自去年起迄今5度函詢司法院有關38位死刑犯聲請憲法訴訟之聲請理由、審理進度及有無為暫時處分停止執行之裁定等事由,據以判斷有無不得執行之法定事由。因目前38位死刑犯尚有其他不同聲請憲法訴訟理由,正由憲法法庭審理中,法務部尊重憲法法庭依法審判之職權,基於權力分立,在司法救濟程序終結前,無法陳送部長令准執行死刑。法務部重申,尊重今天憲法法庭宣告合憲判決結果,其他死刑犯聲請憲法訴訟案件,也盼望憲法法庭能加快審理進度,避免執行程序久懸不決。
法務部也表示,台灣是法治國家,依法行政為法治國家基本原則,也是法務部一貫之立場及基本施政原則。法務部對死刑無預設任何立場,國家未廢除死刑制度前,基於依法行政及尊重死刑犯相關聲請救濟之權利,若司法救濟程序已窮,將嚴謹辦理後續程序,以兼顧司法正義及人權保障。
目前根據法務部的資料顯示,全台尚未執行死刑犯共有38人,已判決但未執行的,目前最久為2000年判刑的黃春樹命案,黃春棋及陳憶隆綁架建商黃春樹後,將其殺害棄屍,再勒贖7000萬元。當中被指為共犯,也曾被判死刑的徐自強,歷經21年訴訟,最後無罪獲釋,黃、陳兩人各自多次聲請再審,均被駁回。
最近一次判死刑定讞但未執行的,是在2020年犯下三峽雙屍案的沈文賓。法務部上次執行死刑為2020年4月1日槍決翁仁賢,翁仁賢在除夕夜縱火造成親屬與看護共6死5重傷。
關於死刑執行,根據《執行死刑規則》第2條第2項、第1項第4款規定,如果死刑定讞的被告有「聲請司法院大法官解釋」、「再審」或「非常上訴」程序進行中,就不得執行死刑。這也是外界常常稱死刑犯的「保命符」。
延伸閱讀
- 王建煊放話當選總統後1個月內槍決所有死刑犯,法務部長:目前38位死刑犯依法不能執行
- 立院今審查大法官被提名人,聚焦死刑存廢,尤伯祥:贊成在民意基礎上逐步廢死
- 死刑判決的定錨效應:以前容易判死,現在要判死不容易?
- 國際特赦組織報告:2022年全球死刑執行數創5年新高,中東北非佔九成、中國估每年處死逾千人
核稿編輯:邱宜君
AI 賽局 AWS 保持優勢的秘密!Anthropic 被亞馬遜投資 40 億美金後 Claude 3 模型對上雲企業有何效益?
我們想讓你知道的是
在全球擁有數十萬用戶的雲端服務領導業者 AWS 推出之生成式AI平台「Amazon Bedrock」推出滿一周年之際,耳熟能詳的 AI 模型如 Stable Diffusion 、 Claude 、 Mistral 、 Llama 陸續登上 Bedrock 。另一方面, AWS 近期完成對 Anthropic 的 40 億美元投資案,這些佈局背後用意,如何讓 AWS 在長期的 AI 軍備競賽當中,保持領先地位?
打造三層 AI 蛋糕,中層 Amazon Bedrock 累積超過一萬家客戶
關於這幾年 AWS 在 AI 有哪些具體的投入? Mark Relph, Director of Generative AI Go-To-Market, Amazon Bedrock 用了一個比喻,他說:「可以想像我們正在打造一個三層的蛋糕,每一層各有不同目的及功能項目。」
Mark 逐一解釋, 最底層的基礎設施,也就是運算、網絡、架構層,舉例來説, AWS 積極發展兩款用來訓練生成式 AI 的訂製晶片,分別是 AWS Trainium 及 AWS Inferentia ,幫助更多客戶獲得具成本亦得運算能力。另外一個是 AWS 推出全託管的機器學習( ML )服務 Amazon SageMaker ,它讓 AI 開發人員和數據科學家的得以快速建構大型語言模型(LLMs)和其他基礎模型(FMs)。
中間層則是模型層, AWS 透過 Amazon Bedrock ,讓用戶可以透過單一 API 建置生成式 AI 應用程式所需的各種廣泛功能,搭配安全、隱私與負責任的 AI ,幫助企業使用熟悉的 AWS 服務,將生成式 AI 功能安全整合並部署到應用程式之中。蛋糕的最上一層則是應用層,針對各種應用程式內建 AI 功能,一方面幫助開發人員生成程式處理的工具,另一方面則針對商業應用,受惠企業以更有效率打造 AI 助手。
其中, Amazon Bedrock 之所以受到各界關注, Mark 解釋,「因為這是一項屬於無伺服器的全託管服務,開發者不用管理管理任何 IT 基礎設備,可以直接透過 API 嘗試使用 Amazon Bedrock 上面的生成式 AI 模型,接著把模型安全整合到對應的應用程式當中。」
目前累積超過一萬家活躍客戶使用 Amazon Bedrock ,這個雲端 AI 模型平台之所以有這麼高的黏著度,很重要的一個因素就是「集結」多個重要 AI 模型。攤開名單,包含 Stable Diffusion 、 Mistral 、 Llama 、 AWS 自家的 Amazon Titan ,以及 AI 新創公司 Anthropic 推出的 Claude 3 系列模型(包含 Sonnet 、 Haiku 、 Opus ),這些模型提供給客戶多種選擇,讓客戶找到最適合自己的基礎模型,應用場景包含但不限於常見一些
用來生成文本、圖像、音訊或是執行對話、摘要總結、文字處理作業等的應用。
AWS 投資 Anthropic 聯手力推 Claude 3 ,讓 AI 模型「混搭」效率大
今年 3 月,亞馬遜宣布完成對 Anthropic 的 40 億美元投資,談到雙方合作契機, Mark 解釋, AWS 與 Anthropic 有共同的目標,就是提供客戶一個快速、安全及負責任地探索生成式 AI 。拆解雙方的進一步合作細節,目前可知 Anthropic 會採用 AWS 的 Trainium 及 Inferentia 晶片,建構、訓練及部署其 AI 模型,而 AWS 也會在 Amazon Bedrock 開放、存取 Anthropic 最先進的 AI 模型權限。
而 Anthropic 打造的 Claude 3 Opus ,除了登上 Amazon Bedrock 供更多人使用之外, Claude 3 Opus 之所以備受矚目,另一原因是 Claude 3 Opus 在今年 3 月在專門盲測大型語言模型( LLM )能力的 LMSYS Chatbot Arena 排行榜上(資料來源:https://www.ithome.com.tw/news/162023),成功「篡位」拿下冠軍寶座。
根據 Anthropic 測試,處理複雜的開放式問題, Claude 3 Opus 的準確率比 Claude 2.1 提高約兩倍,而且跟其他模型進行特殊知識表現比較,像是研究生水準專家推理、基礎數學等,理解力和熟練度都更為優異。除了有 Claude 3 Opus 的加持, Amazon Bedrock 持續受到歡迎的因素, Mark 給了另一個角度的詮釋。
「我們發現越來越多企業在不同的 AI 模型之間切換,例如用一個模型做文字檔案摘要,接著需要用另一個模型做問題推理及解決,所以他們傾向把模型『串連』在一起,來解決複雜的業務問題。 Amazon Bedrock 正可滿足這樣情境的基礎建設環境,秉持以客戶為中心並從解決問題的角度出發,也是為什麼 Amazon Bedrock 引起客戶共鳴的關鍵,」 Mark 補充道。
除了建置好用的雲端平台環境,從 2023 年開始, AWS 還成立「生成式 AI 創新中心」投入一億美元預算,用來聯結 AWS 平台上的 AI 和機器學習專家與全球客戶,協助構想、設計和推出新的生成式 AI 產品、服務和流程。 AWS 與 Anthropic 內部的合作,也是透過生成式 AI 創新中心的資源,讓更多客戶受惠 Claude 3 系列模型,將 AI 真正普及到各行各業。
把通才 AI 變成公司的專才秘書,負責任 AI 確保企業數據足夠安全
不論是潛力新創公司、領先的成功企業、或是政府組織,前仆後繼成為 Amazon Bedrock 的用戶, AWS 也看到不同產業的生成式 AI 使用情境實際落地。 Mark 提到幾個案例,例如客服部門有 Claude 3 加持,讓人與人的對話過程即時掌握顧客需求,客服同仁可以從 AI 工具獲得文字提示,當下就能完整歸納出給客戶的解答,不僅可減少通話時間又提升對話價值。
除此之外,生成式 AI 還可以在製造業(例如:分析維修手冊提供下次機台需要進修時間)、醫療業(例如:提供該位顧客返家後用藥須注意事項)、金融業(例如:針對該客戶的貸款狀況、提交的財務文件快速指出下一階段業務內容)等領域有所貢獻。
但從上述的情境當中可發現,這類回答往往需要更專業、更適合的答案,而且不能輕易「糊弄」提問者。對此, Cathy Lai, Lead, Service Specialist Team, AWS Taiwan 就提到, Amazon Bedrock 內建負責任 AI(responsible AI) 及 RAG(Retrieval-Augmented Generation) 檢索增強生成功能,可以把大型語言模型從「通才」訓練成「專才」。
不過要把 AI 訓練成專才,當然需要企業內部的知識資料庫內容,包含訓練手冊、技術文件、關鍵數據等資料,藉此讓 RAG 模型內的資訊擷取元件,從新資料來源提取資訊。從而提供給 LLM 使用新的知識及其訓練資料來建立更好的回應,將資料轉換為數值表示並將其儲存在向量資料庫中。此程序建立一個生成式 AI 模型可以理解的知識庫,並使用數學向量計算和表示來計算及確立相關性。因此大語言模型就能更具專業內容和具邏輯性的回答。但企業內部重要資料攸關營業機密,要放到 AI 平台進行模型訓練當然更關注安全性。
對此, Mark 以嚴肅口吻回答,「隱私和安全性。始終是 AWS 最關注也最在意的項目。」目前 Amazon Bedrock 導入防護機制,可設定閾值的內容篩選條件,以篩選涉及仇恨、辱罵、犯罪活動以及提示攻擊等有害內容。同時 Amazon Bedrock 也提供 Guardrails 功能有效實施客製化的安全措施,可以限制大語言模型不提供可能造成財物損失的投資建議等訊息。另外防護機制也會偵測使用者輸入內容和 FM 回應中的個人身分識別資訊(PII)等敏感內容,以保護隱私權。「最後要強調,每家企業的資料不會傳回給 AI 模型供應商,同時 AWS 也絕對不會隨意拿取客戶的資料。」 Cathy 補充道。
展望未來, AWS 會努力尋找用更簡單的方式,給非資工背景的人享受到 AI 效益,甚至自主創建專屬的 AI 應用。 Mark 提到他們有一個「PartyRock」網站(https://partyrock.aws/),底層就是由 Amazon Bedrock 驅動,讓一般大眾在網站根據自身需求(例如希望幫自己的 YouTube 頻道寫腳本)來客製化自己的 AI 應用程式。「可以肯定的是, AWS 將確保提供最好的 AI 工具給我們的客戶,這是永遠不變的承諾!」 Mark 表示。
爲了提供大衆體驗 Claude 3 及其他部分 Amazon Bedrock 平台大語言模型(LLM)的機會,現在就邀請大家限時免費體驗,每一個在本 AWS 網頁開設的測試帳戶現在不需要綁定信用卡、且享有 24 小時內完全免費,讓你輕鬆一鍵創造實驗環境!