Ethical AI Use in Academic Publishing: Overcoming Risks and Ensuring Trust

Penggunaan AI Etis dalam Penerbitan Akademik: Mengatasi Risiko dan Menjamin Kepercayaan

May 07, 25Rene Tetzner
⚠ Sebagian besar universitas dan penerbit melarang konten yang dihasilkan AI dan memantau tingkat kesamaan. Proofreading AI dapat meningkatkan skor ini, menjadikan layanan proofreading manusia pilihan paling aman.

Ringkasan

Kecerdasan buatan (AI) sedang mengubah penerbitan ilmiah, mulai dari mengotomatisasi pencarian literatur hingga membantu menyusun manuskrip. Namun, saat teks, kutipan, dan ringkasan yang dihasilkan AI menyatu mulus dengan tulisan manusia, kekhawatiran tentang kepengarangan, integritas, transparansi, dan bias semakin meningkat. Penggunaan AI yang tidak diungkapkan, referensi palsu, tanggung jawab yang tidak jelas atas kesalahan, dan risiko plagiarisme halus atau self-plagiarism semuanya mengancam kepercayaan pada karya akademik. Karena model AI belajar dari data yang ada, mereka juga dapat mereproduksi bias sistemik, memperkuat perspektif yang berpusat pada Barat dan meminggirkan suara dari wilayah atau disiplin yang kurang terwakili.

Untuk menjaga kualitas akademik sekaligus memanfaatkan AI, komunitas ilmiah membutuhkan standar yang jelas dan tata kelola yang kuat. Strategi utama meliputi kebijakan pengungkapan AI wajib di jurnal dan institusi, verifikasi ketat terhadap kutipan dan data yang dihasilkan AI, aturan tegas yang mencegah sistem AI dicantumkan sebagai penulis, dan penggunaan sistematis alat deteksi kesamaan dan AI untuk memeriksa draf sebelum pengajuan. Peneliti harus dilatih dalam etika dan literasi AI agar mereka menggunakan AI sebagai asisten—bukan sebagai pengganti pemikiran kritis, analisis, dan penulisan mereka sendiri.

Artikel ini mengusulkan pendekatan berlapis-lapis: pernyataan transparansi yang menjelaskan bagaimana AI digunakan; deteksi AI dan penyaringan plagiarisme yang terintegrasi dalam alur kerja editorial; pengawasan manusia atas semua keluaran AI; dan kerangka kerja AI governance frameworks institusional yang mendefinisikan penggunaan yang dapat diterima dan sanksi atas pelanggaran. Dalam model ini, AI menjadi alat untuk meningkatkan kejelasan, efisiensi, dan akses ke pengetahuan, sementara peneliti manusia tetap sepenuhnya bertanggung jawab atas orisinalitas, akurasi, dan integritas etis karya mereka. Untuk dokumen dengan risiko tinggi, menggabungkan penggunaan AI yang hati-hati dengan academic proofreading manusia ahli tetap menjadi cara paling aman untuk memenuhi harapan universitas dan penerbit terkait tingkat kesamaan dan kualitas penelitian.

📖 Full Length Article (Click to collapse)

Menjamin Integritas dalam Konten Ilmiah yang Dihasilkan AI: Tantangan dan Solusi

Pendahuluan: Janji dan Bahaya AI dalam Penerbitan Ilmiah

Kecerdasan buatan (AI) telah dengan cepat bergerak dari pinggiran pekerjaan akademik ke rutinitas sehari-hari. Peneliti kini menggunakan alat AI untuk mencari dan meringkas literatur, menyusun dan merevisi teks, menghasilkan gambar, mengajukan hipotesis, dan bahkan mensimulasikan data. Penerbit dan jurnal bereksperimen dengan sistem AI untuk menyaring pengiriman, mendeteksi plagiarisme, dan mendukung tinjauan sejawat. Jika digunakan dengan hati-hati, teknologi ini dapat menghemat waktu, meningkatkan kejelasan, dan membuat penelitian kompleks lebih mudah diakses.

Pada saat yang sama, konten ilmiah yang dihasilkan AI menimbulkan pertanyaan serius tentang kepengarangan, akuntabilitas, orisinalitas, dan bias. AI dapat membuat referensi yang tampak masuk akal tetapi tidak ada, salah menafsirkan studi kompleks, atau mereproduksi kalimat dan ide yang sudah ada tanpa atribusi. Keterlibatan AI yang tidak diungkapkan mengaburkan batas antara kontribusi intelektual asli dan produksi teks otomatis. Saat universitas dan penerbit memperketat kebijakan terkait karya yang dihasilkan AI, skor kesamaan, dan integritas penelitian, para peneliti membutuhkan panduan yang jelas tentang cara menggunakan AI secara bertanggung jawab.

Artikel ini mengkaji tantangan utama terkait konten ilmiah yang dihasilkan AI dan menguraikan solusi praktis untuk melindungi integritas akademik. Alih-alih menolak AI sepenuhnya, tujuannya adalah menunjukkan bagaimana AI dapat diintegrasikan ke dalam penelitian dan penerbitan dengan cara yang transparan, etis, dan konsisten dengan standar akademik yang sudah lama ada.

Tantangan Utama dalam Konten Ilmiah yang Dihasilkan AI

Munculnya AI generatif dalam penelitian dan penerbitan menghadirkan tantangan teknis dan etis. Kesulitan ini tidak berarti AI harus dilarang dalam karya ilmiah. Sebaliknya, hal ini menyoroti di mana norma, kebijakan, dan perlindungan yang kuat sangat dibutuhkan.

1. Kurangnya Transparansi Tentang Penggunaan AI

Mungkin kekhawatiran paling mendesak adalah penggunaan alat AI yang tidak diungkapkan dalam penulisan akademik. Karena sistem AI modern menghasilkan teks yang lancar dan sangat mirip tulisan manusia, hampir mustahil bagi editor, reviewer, atau pembaca untuk mengetahui seberapa banyak manuskrip yang dihasilkan atau sangat dipengaruhi oleh AI.

  • Banyak jurnal dan institusi masih mengembangkan atau merevisi kebijakan pengungkapan AI. Tanpa aturan yang jelas, praktiknya sangat bervariasi.
  • AI dapat menghasilkan tinjauan pustaka, interpretasi, dan bahkan argumen “novel”, menciptakan ketidakpastian tentang kepengarangan dan kepemilikan intelektual yang sebenarnya dari karya tersebut.
  • Ketika keterlibatan AI disembunyikan, pembaca mungkin menganggap bahwa semua ide dan kata-kata berasal dari penulis yang tercantum, yang dapat menyesatkan dan bermasalah secara etis.

Tanpa transparansi, menjadi sulit untuk mengevaluasi keandalan isi dan sejauh mana keahlian manusia di baliknya.

2. Sitasi Palsu, Ringkasan Menyesatkan, dan Masalah Data

Model AI generatif dikenal dapat “berhalusinasi”: mereka dapat menghasilkan informasi yang meyakinkan tetapi salah atau sepenuhnya dibuat-buat. Dalam konteks ilmiah, ini muncul dalam beberapa cara:

  • AI dapat membuat sitasi yang tidak ada, menggabungkan judul jurnal dan nama penulis asli menjadi referensi fiktif.
  • Tinjauan literatur yang dihasilkan AI dapat salah mengartikan temuan utama, menyederhanakan hasil yang kompleks, atau mengatribusikan klaim ke sumber yang salah.
  • Jika digunakan secara sembrono, AI dapat digunakan untuk menghasilkan data sintetis, gambar, atau tabel yang memberikan kesan eksperimen atau survei nyata.

Masalah ini tidak hanya merusak makalah spesifik tempat mereka muncul; mereka juga mencemari literatur yang lebih luas jika peneliti lain mengandalkan referensi dan ringkasan yang tidak akurat ini untuk karya mereka sendiri.

3. Kepengarangan, Akuntabilitas, dan Peran AI

Kepengarangan akademik tradisional dibangun atas asumsi bahwa penulis yang disebutkan bertanggung jawab atas isi karya tersebut. Mereka memberikan kontribusi intelektual, memeriksa fakta, menjamin data, dan menanggapi kritik. AI mempersulit gambaran ini:

  • Sistem AI tidak memiliki tanggung jawab hukum atau moral. Mereka tidak dapat dimintai pertanggungjawaban atas kesalahan, bias, atau pelanggaran.
  • Beberapa peneliti mungkin tergoda untuk sangat bergantung pada AI dalam penyusunan draf, mengurangi jumlah pemikiran asli dan analisis kritis yang mereka kontribusikan sendiri.
  • Jurnal dan badan etika harus memperjelas bahwa AI tidak dapat dicantumkan sebagai rekan penulis, meskipun menghasilkan sebagian besar teks.

Masalah ini memaksa komunitas ilmiah untuk menegaskan kembali prinsip utama: manusia—bukan mesin—harus tetap sepenuhnya bertanggung jawab atas isi karya akademik. Setiap keterlibatan AI harus dianggap sebagai bantuan, bukan kepengarangan.

4. Risiko Plagiarisme dan Plagiarisme Diri

Karena alat AI dilatih pada korpus teks yang sangat besar, keluaran mereka terkadang dapat meniru atau mereproduksi kata-kata yang sudah ada. Ini menciptakan beberapa risiko yang tumpang tindih:

  • Teks yang dihasilkan AI dapat menggunakan kembali kalimat atau frasa dari artikel yang ada tanpa sitasi yang tepat, yang mengakibatkan plagiarisme yang tidak disengaja.
  • Peneliti mungkin menggunakan AI untuk mengungkapkan kembali publikasi mereka sendiri sebelumnya dan menyajikan hasilnya sebagai karya baru, yang berpotensi menyebabkan plagiarisme diri dan publikasi yang berlebihan.
  • Ringkasan yang berasal dari AI mungkin sangat mirip dengan abstrak atau pengantar asli sehingga secara efektif menggandakan konten sebelumnya di basis data ilmiah.

Bahkan ketika penulis tidak berniat untuk melakukan plagiarisme, mereka tetap bertanggung jawab untuk memastikan bahwa teks yang dihasilkan AI memenuhi standar orisinalitas dan atribusi yang diharapkan di bidang mereka.

5. Bias dan Pelanggaran Etika di Domain Sensitif

Model AI mewarisi kekuatan dan kelemahan dari data pelatihannya. Jika data tersebut bias, keluaran juga akan bias. Dalam konten ilmiah ini dapat menyebabkan:

  • Representasi berlebihan sumber Barat atau berbahasa Inggris, yang mengesampingkan penelitian dari wilayah dan bahasa lain.
  • Kurangnya kutipan atau salah representasi terhadap ilmuwan dan komunitas minoritas serta yang kurang terwakili.
  • Perlakuan bermasalah terhadap topik sensitif dalam kedokteran, ilmu sosial, atau hukum, di mana nuansa dan konteks sangat penting.

Ketika AI salah menafsirkan atau menyederhanakan isu seperti ras, gender, disparitas kesehatan, atau praktik budaya, konten ilmiah yang dihasilkan dapat memperpetuasi kerugian dan memperkuat ketidaksetaraan yang ada.

Solusi: Cara Menjaga Integritas dalam Konten Ilmiah yang Dihasilkan AI

Meskipun tantangan ini, AI dapat digunakan secara bertanggung jawab jika peneliti, institusi, dan penerbit mengadopsi strategi yang jelas untuk melindungi standar akademik. Pendekatan berikut saling memperkuat dan bekerja paling baik jika diterapkan bersama.

1. Menetapkan Standar Transparansi dan Pengungkapan AI yang Kuat

Langkah pertama adalah menuntut pengungkapan jujur tentang penggunaan AI. Pembaca dan peninjau tidak boleh menebak apakah manuskrip ditulis dengan bantuan AI.

Praktik terbaik untuk pengungkapan meliputi:

  • Menambahkan bagian khusus (misalnya, “Penggunaan Alat AI”) di mana penulis menyebutkan sistem AI mana yang digunakan dan untuk tugas apa (misalnya, koreksi tata bahasa, merangkum literatur latar belakang, atau membuat keterangan gambar).
  • Mengembangkan pernyataan transparansi AI yang distandarisasi yang dapat diminta jurnal dalam pedoman penulis dan sistem pengiriman.
  • Mendorong para peninjau sejawat dan editor untuk mencari tanda-tanda penggunaan AI yang tidak diungkapkan dan meminta klarifikasi ketika sesuatu tampak tidak konsisten.

Pengungkapan yang jelas tidak menghukum penggunaan AI yang bertanggung jawab; sebaliknya, ini membantu membedakan bantuan yang sah dari ketergantungan atau penipuan yang bermasalah.

2. Memperkuat Pelatihan Etika dan Literasi AI untuk Peneliti

Banyak penggunaan AI yang paling berisiko bukan berasal dari niat jahat tetapi dari pemahaman terbatas tentang keterbatasannya. Oleh karena itu, peneliti perlu pelatihan eksplisit tentang etika dan kemampuan AI.

Strategi pelaksanaan meliputi:

  • Mengintegrasikan modul etika dan integritas AI ke dalam mata kuliah metode penelitian, pelatihan doktoral, dan pengembangan profesional berkelanjutan.
  • Memberikan panduan praktis tentang apa yang AI bisa dan tidak bisa lakukan dengan baik dalam penulisan ilmiah, termasuk kecenderungannya untuk membuat kutipan palsu dan menyederhanakan argumen kompleks.
  • Menyelenggarakan workshop literasi AI secara rutin yang memungkinkan peneliti bereksperimen dengan alat di bawah pengawasan dan membahas dilema etis secara terbuka.

Dengan meningkatkan kesadaran, institusi dapat mengurangi penyalahgunaan yang tidak disengaja dan membantu peneliti mengenali kapan keluaran AI memerlukan koreksi atau pelengkap manusia yang cermat.

3. Menggunakan Alat Deteksi dan Verifikasi AI dengan Bertanggung Jawab

Sama seperti AI dapat menghasilkan teks, alat berbasis AI juga dapat membantu mendeteksi konten yang dihasilkan AI atau berat AI dan memeriksa masalah orisinalitas.

Alat dan metode umum meliputi:

  • Sistem deteksi AI yang memperkirakan apakah sebuah bagian lebih mungkin dihasilkan mesin daripada ditulis manusia.
  • Layanan deteksi plagiarisme seperti alat pemeriksa kesamaan yang membandingkan manuskrip dengan basis data luas karya yang diterbitkan dan konten web.
  • Memeriksa silang semua referensi terhadap basis data ilmiah terpercaya (misalnya, Scopus, Web of Science, atau Google Scholar) untuk memastikan kutipan nyata dan benar atribusinya.

Jurnal dapat mengintegrasikan pemeriksaan ini ke dalam alur kerja editorial, sementara penulis dapat menjalankan tes mereka sendiri sebelum pengiriman untuk mengidentifikasi dan memperbaiki masalah. Bagi banyak peneliti, proses ini paling efektif bila dikombinasikan dengan penyuntingan akademik dan proofreading profesional, memastikan perbaikan bahasa tidak mengorbankan orisinalitas atau keandalan.

4. Memastikan Pengawasan Manusia dan Tanggung Jawab Akhir

AI harus dipandang sebagai alat pendukung, bukan pengganti penilaian ilmiah. Terlepas dari seberapa banyak AI terlibat, penulis manusia tetap sepenuhnya bertanggung jawab atas teks akhir.

Praktik yang direkomendasikan untuk pengawasan manusia:

  • Gunakan AI terutama untuk tugas sempit—seperti pemeriksaan tata bahasa, saran struktur, atau menghasilkan draf awal yang akan direvisi secara ekstensif—bukan untuk membuat seluruh bagian dari awal.
  • Tinjau konten yang dihasilkan AI baris demi baris, memverifikasi fakta, interpretasi, dan kutipan terhadap sumber asli.
  • Periksa bahwa bagian yang dihasilkan AI konsisten dengan pemahaman dan bukti eksperimental penulis sendiri; jika tidak, bagian tersebut harus ditulis ulang atau dibuang.

Singkatnya, AI dapat membantu efisiensi dan kejelasan, tetapi tidak dapat menggantikan kerja intelektual manusia yang mendefinisikan keilmuan sejati.

5. Membangun Kerangka Tata Kelola AI Tingkat Institusi dan Jurnal

Praktik baik individu penting, tetapi perubahan yang bertahan lama memerlukan aturan dan tata kelola sistemik. Universitas, lembaga penelitian, jurnal, dan badan profesional harus bekerja sama untuk mendefinisikan dan menegakkan standar.

Elemen kunci tata kelola AI meliputi:

  • Mendefinisikan kasus penggunaan AI yang dapat diterima dan tidak dapat diterima dalam kebijakan institusional dan pedoman penulis jurnal.
  • Membentuk komite etika AI atau dewan penasihat yang dapat meninjau kasus sulit, memberi saran kebijakan, dan memantau risiko yang muncul.
  • Menghubungkan pelanggaran terkait AI (seperti dengan sengaja mengajukan data atau referensi yang dibuat AI) dengan sanksi dan tindakan korektif yang jelas, termasuk pencabutan jika perlu.

Tata kelola harus cukup fleksibel untuk beradaptasi dengan perubahan teknologi yang cepat tetapi cukup tegas untuk menunjukkan bahwa integritas tidak dapat ditawar.

Tips Praktis untuk Peneliti yang Menggunakan AI dalam Menulis

Bagi peneliti individu yang menavigasi lanskap yang terus berkembang ini, beberapa pedoman praktis dapat sangat mengurangi risiko:

  • Bersikap terbuka. Simpan catatan tentang bagaimana dan di mana AI digunakan dan sertakan ini dalam pernyataan pengungkapan.
  • Periksa semuanya. Perlakukan keluaran AI sebagai draf yang harus diperiksa dengan teliti, bukan sebagai produk jadi yang diterima tanpa kritis.
  • Pertahankan suara Anda. Pastikan manuskrip akhir mencerminkan pemikiran, struktur, dan gaya Anda sendiri—bukan suara AI yang generik.
  • Gunakan dukungan profesional dengan bijak. Untuk pengajuan penting, pertimbangkan layanan penyuntingan manusia yang mengkhususkan diri dalam karya akademik untuk menyempurnakan bahasa dan struktur tanpa menimbulkan risiko etis.

Mengikuti prinsip-prinsip ini memungkinkan peneliti memanfaatkan manfaat AI sekaligus melindungi reputasi mereka dan memenuhi harapan universitas serta penerbit yang semakin berhati-hati.

Kesimpulan: Menuju AI yang Bertanggung Jawab dalam Penerbitan Ilmiah

AI mengubah penerbitan ilmiah dengan cara yang sebelumnya tak terbayangkan beberapa tahun lalu. AI dapat mempercepat tinjauan literatur, membantu dalam penyusunan dan revisi manuskrip, serta membantu pembaca menavigasi kumpulan karya yang kompleks. Namun alat yang sama ini, jika digunakan dengan ceroboh atau tidak jujur, dapat menghasilkan kutipan palsu, menyamarkan kepengarangan, memperkuat bias, dan mengikis kepercayaan pada catatan penelitian.

Menjamin integritas dalam konten ilmiah yang dihasilkan AI oleh karena itu bukanlah pilihan; itu sangat penting. Jalan ke depan terletak pada transparansi, pelatihan, alat deteksi yang kuat, pengawasan manusia, dan kerangka tata kelola yang kokoh. AI harus diperlakukan sebagai asisten yang kuat namun tidak sempurna—yang dapat meningkatkan kualitas penelitian ketika dipandu oleh kebijakan yang jelas dan penilaian manusia yang bertanggung jawab, tetapi tidak pernah sebagai jalan pintas untuk menghindari usaha intelektual atau tanggung jawab etis.

Dengan mengadopsi praktik ini, peneliti, institusi, dan penerbit dapat memastikan bahwa AI berfungsi sebagai alat untuk memperkuat karya akademik, bukan melemahkannya. Dalam lingkungan di mana skor kesamaan dan teks yang dihasilkan AI semakin diawasi, menggabungkan penggunaan AI yang hati-hati dengan tinjauan manusia yang ketat—dan, bila perlu, layanan proofreading ahli—menawarkan cara paling andal untuk menghasilkan konten ilmiah yang jelas, orisinal, dan etis.



Artikel lainnya

Editing & Proofreading Services You Can Trust

At Proof-Reading-Service.com we provide high-quality academic and scientific editing through a team of native-English specialists with postgraduate degrees. We support researchers preparing manuscripts for publication across all disciplines and regularly assist authors with:

Our proofreaders ensure that manuscripts follow journal guidelines, resolve language and formatting issues, and present research clearly and professionally for successful submission.

Specialised Academic and Scientific Editing

We also provide tailored editing for specific academic fields, including:

If you are preparing a manuscript for publication, you may also find the book Guide to Journal Publication helpful. It is available on our Tips and Advice on Publishing Research in Journals website.