<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:media="http://search.yahoo.com/mrss/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Sama Berbahaya dengan Perang Nuklir, AI Bisa Sebabkan Kepunahan Umat Manusia</title><description>Surat itu mendesak agar risiko AI dijadikan pembahasan seperti pandemi dan perang nuklir.</description><link>https://news.okezone.com/read/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia</link><language>id</language><atom:link type="application/rss+xml" rel="self" href="https://news.okezone.com/read/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia"/><item><title>Sama Berbahaya dengan Perang Nuklir, AI Bisa Sebabkan Kepunahan Umat Manusia</title><link>https://news.okezone.com/read/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia</link><guid isPermaLink="false">https://news.okezone.com/read/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia</guid><pubDate>Rabu 31 Mei 2023 09:54 WIB</pubDate><dc:creator>Rahman Asmardika</dc:creator><media:content url="https://img.okezone.com/content/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia-3kM6NhKqM4.jpeg" expression="full" type="image/jpeg">Ilustrasi. (Foto: Shutterstock)</media:content><images><thumb></thumb><image>https://img.okezone.com/content/2023/05/31/18/2822926/sama-berbahaya-dengan-perang-nuklir-ai-bisa-sebabkan-kepunahan-umat-manusia-3kM6NhKqM4.jpeg</image><title>Ilustrasi. (Foto: Shutterstock)</title></images><description>SEBUAH surat yang ditandatangani lebih dari 350 tokoh, termasuk pakar, peneliti, dan pemimpin industri teknologi, menyebut kecerdasan buatan (artificial intelligence/AI) sebagai ancaman yang dapat menyebabkan kepunahan manusia.
Surat yang diterbitkan oleh lembaga nirlaba Center for AI Safety (CAIS) itu menyerukan &quot;mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir.&quot;

BACA JUGA:
Artificial Intelligence Makin Masif, Pemerintah Diminta Rumuskan Regulasi&amp;nbsp; &amp;nbsp;

Di antara penandatangan surat itu adalah OpenAI CEO Sam Altman. CEO perusahaan AI DeepMind dan Anthropic, serta eksekutif dari Microsoft dan Google. Selain itu terdapat juga Geoffrey Hinton dan Yoshua Bengio yang merupakan akar AI terkemuka, serta profesor dari institusi mulai dari Harvard hingga Universitas Tsinghua China, demikian diwartakan Reuters.
Surat dirilis bertepatan dengan pertemuan Dewan Perdagangan dan Teknologi Amerika Serikat (AS)-Uni Eropa di Swedia di mana para politisi diharapkan berbicara tentang pengaturan AI.

BACA JUGA:
Elon Musk Bikin TruthGPT, Ikuti Jejak Jack Ma Main Artificial Intelligence&amp;nbsp;

Elon Musk dan sekelompok pakar AI dan eksekutif industri adalah yang pertama mengutip potensi risiko bagi masyarakat pada April.
&quot;Kami telah menyampaikan undangan (kepada Musk), dan mudah-mudahan dia akan menandatanganinya minggu ini,&quot; kata Direktur CAIS Dan Hendrycks.Perkembangan terkini dalam AI telah menciptakan alat yang menurut para pendukung dapat digunakan dalam aplikasi mulai dari diagnostik medis hingga menulis ringkasan hukum, tetapi hal ini memicu kekhawatiran bahwa teknologi tersebut dapat menyebabkan pelanggaran privasi, kampanye informasi yang salah, dan menyebabkan masalah dengan pemikiran mandiri oleh &quot;mesin pintar&quot;.
Peringatan itu muncul dua bulan setelah badan nirlaba Future of Life Institute mengeluarkan surat terbuka serupa, yang ditandatangani oleh Musk dan ratusan lainnya, menuntut jeda mendesak dalam penelitian AI lanjutan, dengan alasan risiko terhadap kemanusiaan.
&quot;Surat kami mengarusutamakan jeda, ini mengarusutamakan kepunahan,&quot; kata presiden FLI Max Tegmark, yang juga menandatangani surat yang lebih baru. &quot;Sekarang percakapan terbuka yang konstruktif akhirnya dapat dimulai.&quot;
Pionir AI Hinton sebelumnya mengatakan kepada Reuters bahwa AI dapat menimbulkan ancaman yang &quot;lebih mendesak&quot; bagi umat manusia daripada perubahan iklim.</description><content:encoded>SEBUAH surat yang ditandatangani lebih dari 350 tokoh, termasuk pakar, peneliti, dan pemimpin industri teknologi, menyebut kecerdasan buatan (artificial intelligence/AI) sebagai ancaman yang dapat menyebabkan kepunahan manusia.
Surat yang diterbitkan oleh lembaga nirlaba Center for AI Safety (CAIS) itu menyerukan &quot;mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir.&quot;

BACA JUGA:
Artificial Intelligence Makin Masif, Pemerintah Diminta Rumuskan Regulasi&amp;nbsp; &amp;nbsp;

Di antara penandatangan surat itu adalah OpenAI CEO Sam Altman. CEO perusahaan AI DeepMind dan Anthropic, serta eksekutif dari Microsoft dan Google. Selain itu terdapat juga Geoffrey Hinton dan Yoshua Bengio yang merupakan akar AI terkemuka, serta profesor dari institusi mulai dari Harvard hingga Universitas Tsinghua China, demikian diwartakan Reuters.
Surat dirilis bertepatan dengan pertemuan Dewan Perdagangan dan Teknologi Amerika Serikat (AS)-Uni Eropa di Swedia di mana para politisi diharapkan berbicara tentang pengaturan AI.

BACA JUGA:
Elon Musk Bikin TruthGPT, Ikuti Jejak Jack Ma Main Artificial Intelligence&amp;nbsp;

Elon Musk dan sekelompok pakar AI dan eksekutif industri adalah yang pertama mengutip potensi risiko bagi masyarakat pada April.
&quot;Kami telah menyampaikan undangan (kepada Musk), dan mudah-mudahan dia akan menandatanganinya minggu ini,&quot; kata Direktur CAIS Dan Hendrycks.Perkembangan terkini dalam AI telah menciptakan alat yang menurut para pendukung dapat digunakan dalam aplikasi mulai dari diagnostik medis hingga menulis ringkasan hukum, tetapi hal ini memicu kekhawatiran bahwa teknologi tersebut dapat menyebabkan pelanggaran privasi, kampanye informasi yang salah, dan menyebabkan masalah dengan pemikiran mandiri oleh &quot;mesin pintar&quot;.
Peringatan itu muncul dua bulan setelah badan nirlaba Future of Life Institute mengeluarkan surat terbuka serupa, yang ditandatangani oleh Musk dan ratusan lainnya, menuntut jeda mendesak dalam penelitian AI lanjutan, dengan alasan risiko terhadap kemanusiaan.
&quot;Surat kami mengarusutamakan jeda, ini mengarusutamakan kepunahan,&quot; kata presiden FLI Max Tegmark, yang juga menandatangani surat yang lebih baru. &quot;Sekarang percakapan terbuka yang konstruktif akhirnya dapat dimulai.&quot;
Pionir AI Hinton sebelumnya mengatakan kepada Reuters bahwa AI dapat menimbulkan ancaman yang &quot;lebih mendesak&quot; bagi umat manusia daripada perubahan iklim.</content:encoded></item></channel></rss>
