พุทธจริยธรรมกับความรับผิดชอบ และการกำกับดูแลปัญญาประดิษฐ์
Main Article Content
บทคัดย่อ
บทความนี้วิเคราะห์ความสัมพันธ์เชิงปรัชญาระหว่างจริยธรรมเชิงพุทธกับปัญญาประดิษฐ์ โดยศึกษาเอกสารและงานวิจัยที่เกี่ยวข้องในประเด็นแนวคิดปัญญาประดิษฐ์ ผลกระทบจากการใช้ปัญญาประดิษฐ์
หลักความรับผิดชอบในการพัฒนาและใช้งานปัญญาประดิษฐ์ และแนวทางการกำกับดูแลปัญญาประดิษฐ์ตามหลักพุทธจริยธรรม ผลการศึกษาพบว่า ประการแรก ปัญญาประดิษฐ์เป็นเทคโนโลยีที่มีศักยภาพสูงในการเพิ่มประสิทธิภาพการทำงานและการตัดสินใจ แต่ยังขาดเจตนาและจิตสำนึกตามนัยพุทธปรัชญา จึงไม่อาจสร้างกรรมในตัวเอง ผลกรรมจึงย้อนกลับสู่มนุษย์ผู้ออกแบบและใช้งาน ประการที่สอง ผลกระทบจากการใช้ปัญญาประดิษฐ์มีทั้งด้านบวกและด้านลบ โดยเฉพาะปัญหาอคติของอัลกอริทึม การละเมิดความเป็นส่วนตัว ช่องว่างความรับผิดชอบ และผลกระทบต่อตลาดแรงงานและสุขภาวะทางจิต ประการที่สาม หลักความรับผิดชอบในปัญญาประดิษฐ์สามารถอธิบายได้ผ่านแนวคิดกรรมกระจาย ซึ่งกำหนดให้ผู้มีส่วนเกี่ยวข้องทุกระดับในห่วงโซ่การพัฒนารับผิดชอบตามสัดส่วนของเจตนาและอำนาจ ประการที่สี่ หลักพุทธจริยธรรม โดยเฉพาะหลักเบญจศีลและหลักสัมมาอาชีวะ สามารถทำหน้าที่เป็นกรอบเชิงบรรทัดฐานสำหรับการกำกับดูแลปัญญาประดิษฐ์ที่ส่งเสริมความรับผิดชอบ ความโปร่งใส และการไม่เบียดเบียน
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
เอกสารอ้างอิง
คณะกรรมการการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม. (2566). แผนแม่บทปัญญาประดิษฐ์แห่งชาติเพื่อการพัฒนาประเทศไทย พ.ศ. 2565–2570. กรุงเทพฯ: สำนักงานคณะกรรมการการอุดมศึกษา วิทยาศาสตร์ วิจัยและนวัตกรรม.
มหาจุฬาลงกรณราชวิทยาลัย. (2539). พระไตรปิฎกภาษาไทย ฉบับมหาจุฬาลงกรณราชวิทยาลัย. กรุงเทพฯ: มหาจุฬาลงกรณราชวิทยาลัย.
พระพรหมคุณาภรณ์ (ป.อ. ปยุตฺโต). (2560). พุทธธรรม ฉบับปรับขยาย. (พิมพ์ครั้งที่ 43). กรุงเทพฯ: มูลนิธิการศึกษาเพื่อสันติภาพ.
สำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ. (2564). แนวทางจริยธรรมปัญญาประดิษฐ์สำหรับประเทศไทย. ปทุมธานี: สำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ.
Awad, E., et al. (2018). The moral machine experiment. Nature, 563(7729), 59–64.
Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.
European Parliament. (2016). General Data Protection Regulation (GDPR). Brussels: European Union.
Floridi, L., et al. (2018). AI4People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707.
Hershock, P. D. (2021). Buddhism and intelligent technology: Toward a more humane future. London: Bloomsbury Academic.
Hongladarom, S. (2020). The ethics of AI and robotics: A Buddhist viewpoint. Lanham, MD: Lexington Books.
Lin, C.T. (2023). All about the human: A Buddhist take on AI ethics. Business Ethics, the Environment & Responsibility, 32(3), 1113–1122.
Nissenbaum, H. (1996). Accountability in a computerized society. Science and Engineering Ethics, 2(1), 25–42.
Obermeyer, Z., et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. New York: Viking.