DCNews, Jakarta — OpenAI, perusahaan pengembang kecerdasan buatan di balik ChatGPT, membuka posisi eksekutif baru untuk memperkuat pengawasan terhadap risiko penggunaan artificial intelligence (AI), seiring meningkatnya kekhawatiran global atas dampak teknologi tersebut terhadap keamanan digital dan kesehatan mental manusia.
CEO OpenAI Sam Altman mengakui bahwa kemajuan pesat model AI kini tidak hanya menghadirkan manfaat, tetapi juga tantangan serius. Dalam unggahannya di platform X, Altman menyebut teknologi AI mulai menunjukkan potensi memengaruhi kondisi psikologis pengguna serta kemampuan mengeksploitasi celah keamanan kritis dalam sistem digital, sebagaimana dikutip TechCrunch, Senin.
Posisi baru itu diberi nama Head of Preparedness, jabatan strategis yang bertugas menjalankan kerangka kesiapsiagaan perusahaan untuk mengidentifikasi, melacak, dan mengantisipasi kemampuan AI yang berpotensi menimbulkan risiko besar—baik yang bersifat langsung maupun jangka panjang.
Menurut OpenAI, peran tersebut krusial untuk memastikan pengembangan AI tetap berada dalam batas aman, tidak hanya bagi pengguna individu, tetapi juga bagi stabilitas sistem teknologi dan keamanan global.
Untuk menarik kandidat terbaik, OpenAI menawarkan kompensasi hingga US$555.000 per tahun, atau sekitar Rp8,7 miliar, belum termasuk kepemilikan saham perusahaan—menjadikannya salah satu posisi keselamatan AI dengan bayaran tertinggi di industri teknologi global.
OpenAI sebenarnya telah membentuk tim Preparedness sejak 2023. Tim ini ditugaskan mempelajari berbagai skenario risiko ekstrem, mulai dari ancaman nyata seperti penipuan daring berbasis AI hingga risiko spekulatif, termasuk potensi penyalahgunaan teknologi dalam konteks senjata pemusnah massal.
Namun, perjalanan tim tersebut tidak sepenuhnya mulus. Sejumlah pejabat keselamatan OpenAI dilaporkan telah berpindah peran atau meninggalkan perusahaan. Kepala kesiapsiagaan sebelumnya, Aleksander Madry, dialihkan ke posisi lain yang lebih fokus pada pengembangan penalaran AI, sementara beberapa eksekutif keselamatan lainnya keluar dari struktur inti perusahaan.
Di tengah dinamika internal itu, OpenAI juga memperbarui kerangka kesiapsiagaannya. Perusahaan menyatakan dapat menyesuaikan standar keselamatan jika kompetitor merilis model AI berisiko tinggi tanpa perlindungan yang sebanding—sebuah sinyal bahwa persaingan industri turut memengaruhi kebijakan keamanan.
Tekanan terhadap perusahaan AI kian meningkat, terutama terkait dampak chatbot generatif terhadap kesehatan mental. OpenAI sendiri baru-baru ini menghadapi gugatan hukum yang menuding ChatGPT berkontribusi pada delusi pengguna, meningkatkan isolasi sosial, hingga mendorong perilaku bunuh diri pada kasus tertentu.
Menanggapi hal itu, OpenAI menegaskan komitmennya untuk terus meningkatkan kemampuan ChatGPT dalam mendeteksi tanda-tanda tekanan emosional dan mengarahkan pengguna ke sumber dukungan di dunia nyata—langkah yang kini menjadi bagian tak terpisahkan dari perdebatan global tentang masa depan AI yang aman dan bertanggung jawab. ***

