<video id="rew6m"><dfn id="rew6m"></dfn></video>

  • <b id="rew6m"><address id="rew6m"></address></b>

    1. <source id="rew6m"><address id="rew6m"><ol id="rew6m"></ol></address></source>
    2. <b id="rew6m"><small id="rew6m"></small></b>

      <b id="rew6m"></b>

        <b id="rew6m"></b>

      美國剛剛公布了迄今為止最雄心勃勃的控制人工智能的嘗試

      周一,美國總統拜登發布了一項范圍廣泛且雄心勃勃的行政命令關于人工智能 (AI)– 將美國推上了關于監管人工智能的對話的前沿。

      在這樣做的過程中,美國在統治人工智能的競賽中超越了其他國家。歐洲此前以其人工智能法案,該公約于2023年6月由歐洲議會通過,但要到2025年才能完全生效。

      總統行政命令是監管人工智能的一系列舉措——其中一些是好的,而另一些則看起來相當半生不熟。它旨在解決從直接的危害(如人工智能生成的深度偽造)到中間的危害(如失業),再到長期的危害,如人工智能可能對人類構成的備受爭議的生存威脅。

      拜登雄心勃勃的計劃

      美國國會在通過對大型科技公司的重大監管方面進展緩慢。這項總統行政命令可能既是為了回避經常陷入僵局的國會,也是為了啟動行動。例如,該命令呼吁國會通過兩黨數據隱私立法。

      在當前形勢下,兩黨的支持?祝你好運,總統先生。

      據報道,該行政命令將在未來三個月至一年內實施。它涵蓋八個領域:

      1. 人工智能的安全和安保標準
      2. 隱私保護
      3. 衡平法和公民權利
      4. 消費者權益
      5. 工作
      6. 創新與競爭
      7. 國際領導地位
      8. AI 治理。

      一方面,該命令涵蓋了學術界和公眾提出的許多擔憂。例如,其中一項指令是發布關于如何對人工智能生成的內容加水印的官方指導,以降低深度偽造的風險。

      它還要求開發人工智能模型的公司證明它們是安全的,然后才能推出以供更廣泛地使用。拜登總統說:

      這意味著公司必須向政府介紹他們正在開發的大規模人工智能系統,并分享嚴格的獨立測試結果,以證明它們不會對美國人民構成國家安全或安全風險。

      人工智能在戰爭中的潛在災難性用途

      與此同時,該命令未能解決一些緊迫的問題。例如,它沒有直接解決如何應對殺手級人工智能機器人的問題,這是一個令人煩惱的話題,在過去兩周內一直在討論。聯合國大會.

      這種擔憂不容忽視。五角大樓是開發蜂群低成本自主無人機,作為其最近宣布的復制器計劃的一部分。同樣,烏克蘭也開發了本土的人工智能攻擊無人機,可以在沒有人為干預.

      我們最終會進入一個機器決定誰生誰死的世界嗎?該行政命令只是要求軍方以合乎道德的方式使用人工智能,但沒有規定這意味著什么。

      那么保護選舉免受人工智能驅動的大規模說服武器的侵害呢?一些媒體報道了斯洛伐克最近的選舉可能受到影響作者:deepfakes.許多專家,包括我自己,也擔心在即將到來的美國總統大選中濫用人工智能。

      除非實施嚴格的控制措施,否則我們有可能生活在一個你在網上看到或聽到的任何東西都不可信的時代。如果這聽起來有些夸張,請考慮一下美國共和黨已經發布了廣告活動廣告這似乎完全由 AI 生成。

      錯失良機

      行政命令中的許多舉措可以而且應該在其他地方復制,包括澳大利亞。我們也應該按照命令的要求,為房東、政府項目和政府承包商提供指導,說明如何確保人工智能算法不會被用來歧視個人。

      我們還應該按照命令的要求,解決刑事司法系統中的算法歧視問題,人工智能越來越多地用于高風險環境,包括量刑、假釋和緩刑、審前釋放和拘留、風險評估、監視和預測性警務等。

      人工智能在澳大利亞也被用于此類應用,例如用于監控青少年的嫌疑人目標管理計劃在新南威爾士州.

      也許行政命令中最具爭議的方面是解決最強大的所謂“前沿”人工智能模型的潛在危害。一些專家認為,這些模型由Open AI、谷歌和Anthropic等公司開發,對人類構成了生存威脅。

      其他人,包括我自己,認為這種擔憂被夸大了,可能會分散對更直接的傷害的注意力,例如錯誤信息和不平等,這些傷害已經傷害了社會。

      拜登的命令援引了非凡的戰爭權力(特別是 1950 年國防生產法在朝鮮戰爭期間引入),要求公司在訓練此類前沿模型時通知聯邦政府。它還要求他們分享”紅隊“安全測試,其中內部黑客使用攻擊來探測軟件的錯誤和漏洞。

      我想說的是,監管前沿模型的發展將是困難的,也許是不可能的。上述指令不會阻止公司在海外開發此類模型,因為美國政府在海外的權力有限。開源社區也可以以分布式方式開發它們——一種使科技世界“無國界”的方式。

      行政命令的影響可能會對政府本身產生最大的影響,以及它如何使用人工智能,而不是企業。

      盡管如此,這是一個受歡迎的行動。英國首相里希·蘇納克(Rishi Sunak)的人工智能安全峰會(AI Safety Summit)正在舉行接下來的兩天相比之下,現在看起來有點像一場外交談話盛宴。

      這確實讓人羨慕總統把事情做好的權力。

      托比·沃爾什,人工智能教授,課題組組長,新南威爾士大學悉尼分校

      本文轉載自對話根據知識共享許可。閱讀原文.

      寶寶起名

      本站所有相關知識僅供大家參考、學習之用,部分來源于互聯網,其版權均歸原作者及網站所有,如無意侵犯您的權利,請與小編聯系,我們將會在第一時間核實并給予反饋。
      相關期刊推薦
      湖北農機化

      湖北農機化

      農業基礎科學 - 省級期刊

      管理觀察

      管理觀察

      合作期刊 - 國家級期刊

      商品與質量

      商品與質量

      合作期刊 - 國家級期刊

      就業與保障

      就業與保障

      合作期刊 - 省級期刊

      建筑技術開發

      建筑技術開發

      合作期刊 - 國家級期刊

      文物鑒定與鑒賞

      文物鑒定與鑒賞

      合作期刊 - 省級期刊

      商訊

      商訊

      合作期刊 - 省級期刊

      智慧中國

      智慧中國

      合作期刊 - 國家級期刊

      畜牧獸醫科學

      畜牧獸醫科學

      醫藥衛生綜合 - 國家級期刊

      經貿實踐

      經貿實踐

      合作期刊 - 省級期刊

      科技經濟導刊

      科技經濟導刊

      合作期刊 - 省級期刊

      <video id="rew6m"><dfn id="rew6m"></dfn></video>

    3. <b id="rew6m"><address id="rew6m"></address></b>

      1. <source id="rew6m"><address id="rew6m"><ol id="rew6m"></ol></address></source>
      2. <b id="rew6m"><small id="rew6m"></small></b>

        <b id="rew6m"></b>

          <b id="rew6m"></b>
        初爱视频教程免费看