top of page

AI Literacy : การเขียน Prompt อย่างมีจริยธรรม และการใช้ AI เพื่อการประเมินผลสำหรับครู

  • Writer: ศูนย์พัฒนาและประยุกต์วิชาการ ศึกษาศาสตร์ มสธ.
    ศูนย์พัฒนาและประยุกต์วิชาการ ศึกษาศาสตร์ มสธ.
  • 3 days ago
  • 4 min read

วรางคณา โตโพธิ์ไทย

                    Varangkana  Topothai

รองศาสตราจารย์ ดร. ประจำสาขาวิชาศึกษาศาสตร์ มหาวิทยาลัยสุโขทัยธรรมาธิราช

Assoc. Prof. Dr., Faculty of Educational Studies, Sukhothai Thammathirat Open University

Corresponding author. E-mail: Varangkana2504@gmail.com

         

 

 

บทคัดย่อ

 

ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) เข้ามามีบทบาทต่อการทำงานของครูในยุคปัจจุบันเพิ่มมากขึ้น ตั้งแต่การออกแบบแผนการสอน การสร้างสื่อ การให้ข้อเสนอแนะ ไปจนถึงการสนับสนุนการประเมินผล อย่างไรก็ตาม การใช้ปัญญาประดิษฐ์ ซึ่งต่อไปในบทความนี้จะใช้คำว่า AI  โดย ขาดความรู้เท่าทัน( AI Literacy ) อาจนำไปสู่ความเสี่ยงสำคัญ เช่น ความคลาดเคลื่อนของข้อมูล อคติที่แฝงอยู่ในผลลัพธ์ การละเมิดข้อมูลส่วนบุคคล และความไม่ยุติธรรมในการประเมินผู้เรียน (Bender et al., 2021; Buolamwini & Gebru, 2018) บทความนี้นำเสนอกรอบคิดและแนวทางปฏิบัติสำหรับครู ผ่าน 3 แกนหลักที่เชื่อมโยงกัน ได้แก่ (1) AI Literacy ขั้นต่ำที่ครูควรมี (2) การเขียน Prompt อย่างมีจริยธรรมเพื่อให้ได้ผลลัพธ์ที่ปลอดภัย ตรวจสอบได้ และสอดคล้องกับบริบทโรงเรียนไทย (Long & Magerko, 2020; Mollick, 2024) และ (3) การใช้ AI เพื่อสนับสนุนการประเมินผลอย่างยุติธรรม โดยเน้นความโปร่งใส เกณฑ์ที่ชัดเจน และบทบาทการตัดสินใจของครูเป็นสำคัญ (Black & Wiliam, 1998; Brookhart, 2013; Sadler, 1989; Wiliam, 2011)

 

คำสำคัญ: AI Literacy  Prompting อย่างมีจริยธรรม  การประเมินผล ครูไทย  Generative AI

  

1. บทนำ: ทำไม “ครู” ต้องมี AI Literacy

  บริบทการศึกษาปัจจุบันสะท้อนความท้าทายเชิงโครงสร้างที่ครูเผชิญพร้อมกันหลายด้าน เช่น ภาระงานเอกสาร การวัดผลที่ถูกคาดหวังให้มีหลักฐานจำนวนมาก ความเหลื่อมล้ำด้านโอกาสและพื้นฐานผู้เรียน รวมถึงข้อจำกัดด้านเวลาและทรัพยากร ขณะเดียวกัน Generative AI กลายเป็นเครื่องมือที่เข้าถึงง่ายและมีศักยภาพสูงในการช่วยครู “ร่าง” เนื้อหา จัดระบบความคิด และสร้างข้อเสนอแนะได้รวดเร็วขึ้น (Mollick, 2024; Ng et al., 2021)

  อย่างไรก็ตาม AI ไม่ได้ให้ผลลัพธ์ที่ถูกต้องเสมอ และอาจสร้างข้อความที่ “ดูน่าเชื่อถือ” ทั้งที่คลาดเคลื่อน รวมทั้งอาจสะท้อนอคติที่ฝังอยู่ในข้อมูลหรือในกระบวนการพัฒนาเทคโนโลยี (Bender et al., 2021; Buolamwini & Gebru, 2018) หากครูนำผลลัพธ์ไปใช้โดยไม่ตรวจสอบ อาจเกิดความเสียหายต่อความน่าเชื่อถือของการเรียนการสอน และกระทบต่อความยุติธรรมในการประเมินผู้เรียน (Floridi, 2023; Wiliam, 2011)

ดังนั้น ครูไทยในยุคปัจจุบัน จึงควรพัฒนาสมรรถนะ 3 แกนที่เชื่อมกันเป็นระบบ คือ (1) การรู้เท่าทัน AI (AI Literacy ) เพื่อรู้เท่าทันและใช้ AI อย่างมีเป้าหมาย (Long & Magerko, 2020; Ng et al., 2021) (2) การเขียน Prompt (ข้อความที่ใช้สื่อสารกับ AI ) อย่างมีจริยธรรม (Ethical Prompting) เพื่อสั่งงานอย่างรับผิดชอบและลดความเสี่ยง (Floridi, 2023; Mollick, 2024) และ (3) การใช้ AI เพื่อการประเมินผลอย่างยุติธรรม (Fair Assessment) เพื่อให้การประเมินโปร่งใส มีเกณฑ์ และตรวจสอบได้ (Black & Wiliam, 1998; Sadler, 1989)

 

2. AI Literacy สำหรับครู: “ทักษะขั้นต่ำที่ควรมี”

AI Literacy สำหรับครูในทางปฏิบัติ ไม่จำเป็นต้องเริ่มจากความรู้เชิงเทคนิคระดับสูง แต่ควรเริ่มจาก “ความเข้าใจเพื่อการตัดสินใจ” กล่าวคือ ครูควรเข้าใจว่า AI ทำงานแบบสร้างผลลัพธ์จากรูปแบบข้อมูล (pattern-based generation) จึงอาจให้คำตอบที่สมเหตุสมผลแต่ไม่ถูกต้องได้ และครูต้องเป็นผู้รับผิดชอบคุณภาพของการนำไปใช้ (Long & Magerko, 2020; Ng et al., 2021)

 

2.1 AI ทำได้ดี vs AI ทำไม่ได้ ในงานของครู

ในงานของครู AI มักทำได้ดีเมื่อใช้เพื่อ “ช่วยร่าง ช่วยจัดระบบ และช่วยสร้างตัวอย่าง” เช่น สรุปประเด็น จัดโครงร่าง สร้างตัวอย่างคำตอบหลายระดับ หรือร่างข้อเสนอแนะตามเกณฑ์ที่กำหนด ซึ่งสอดคล้องกับแนวคิดการทำงานร่วมกับ AI ในฐานะ “ผู้ช่วย” มากกว่า “ผู้ตัดสิน” (Mollick, 2024; Wiliam, 2011)

แต่ AI มักเสี่ยงสูงเมื่อถูกใช้เพื่อ “อ้างข้อเท็จจริงเฉพาะโดยไม่ตรวจสอบ” หรือ “ตัดสินคุณค่าของผู้เรียน” เช่น การสรุปว่าเด็กไม่ตั้งใจ หรือ  ขี้เกียจจากหลักฐานที่ไม่ชัดเจน  ตลอดจนการให้คะแนนสุดท้ายโดยไม่ผ่านการเทียบรูบริก และการตรวจซ้ำ ซึ่งขัดกับหลักความรับผิดชอบและความยุติธรรมในการประเมิน (Bender et al., 2021; Floridi, 2023; Sadler, 1989)

 

2.2 องค์ประกอบ AI Literacy ขั้นต่ำ 6 ด้าน สำหรับครู มีดังนี้

  1. เข้าใจข้อจำกัดของ AI: ตระหนักว่า AI สร้าง “ความเป็นไปได้” มากกว่าการยืนยัน “ความจริง” และอาจเกิดความคลาดเคลื่อนได้ (Bender et al., 2021; Long & Magerko, 2020)

2. นิสัยการตรวจสอบ (Verification habit): ตรวจความสอดคล้องกับหลักสูตร ตัวชี้วัด และเนื้อหาที่ถูกต้องก่อนนำไปใช้ (Ng et al., 2021; Mollick, 2024)

  3. ความตระหนักด้านอคติ: ระวังภาษาที่ตีตรา เหมารวม และตรวจว่าผลลัพธ์ทำให้ผู้เรียนกลุ่มใดเสียเปรียบหรือไม่ (Buolamwini & Gebru, 2018; Floridi, 2023)

  4. ความปลอดภัย และความเป็นส่วนตัวของข้อมูล: หลีกเลี่ยงการป้อนข้อมูลระบุตัวตน และใช้ข้อมูลเท่าที่จำเป็นต่อภารกิจการสอน (Floridi, 2023; Ng et al., 2021)

5. ทักษะออกแบบการเรียนรู้โดยใช้ AI เป็นผู้ช่วย: ให้ครูกำหนดเป้าหมาย หลักฐาน และเกณฑ์ก่อน แล้วให้ AI ช่วยร่างเพื่อลดเวลา (Brookhart, 2013; Mollick, 2024)

          6. ความรับผิดชอบและความโปร่งใส: ครูสื่อสารว่ามีการใช้ AI ช่วยส่วนใด และครูเป็นผู้ตรวจสอบคุณภาพเสมอ (Floridi, 2023; Wiliam, 2011)

เพื่อให้เกิดการใช้งานอย่างปลอดภัยในเชิงนิสัย สามารถยึด “หลัก 3 ไม่” ได้แก่ ไม่ป้อนข้อมูลส่วนตัว ไม่เชื่อทันที และไม่ให้ AI ตัดสินแทน ซึ่งสอดคล้องกับแนวคิดความรับผิดชอบและการกำกับดูแลการใช้ AI ในงานวิชาชีพ (Floridi, 2023; Mollick, 2024)

 

3. Prompting อย่างมีจริยธรรมสำหรับครู: จาก “สั่งงานเป็น” สู่ “สั่งงานปลอดภัย”

  การเขียน Prompt ไม่ใช่เพียงการพิมพ์คำสั่งให้ AI ทำงาน แต่เป็น “การออกแบบเงื่อนไข” ให้ผลลัพธ์มีความชัดเจน ตรวจสอบได้ ลดอคติ เคารพความเป็นส่วนตัว และสอดคล้องกับเป้าหมายการเรียนรู้ (Floridi, 2023; Mollick, 2024) หาก Prompt ไม่ชัด ผลลัพธ์มัก “ดูดีแต่ใช้จริงไม่ได้” หรือ “เสี่ยง” ต่อการนำไปใช้ในชั้นเรียน (Bender et al., 2021; Ng et al., 2021)

 

3.1 Prompt Template 5 ช่อง ซึ่งใช้ได้กับงานของครู

เพื่อให้ครูใช้งานได้เป็นระบบ บทความนี้เสนอ Prompt Template 5 ช่อง ได้แก่ (1) บทบาทของ AI (Role) (2) บริบทผู้เรียนและภารกิจ (Context) (3) ผลลัพธ์ที่ต้องการ (Output) (4) ข้อจำกัดด้านจริยธรรม และข้อมูล (Constraints) และ (5) เกณฑ์ตรวจสอบคุณภาพ (Quality checks) ซึ่งเป็นแนวทางที่ช่วยให้ AI ทำงานในกรอบที่ครูควบคุมได้ (Long & Magerko, 2020; Mollick, 2024)

การกำหนด “ข้อจำกัด” และ “เกณฑ์คุณภาพ” มีความสำคัญเป็นพิเศษ เพราะช่วยลดความเสี่ยงจากความคลาดเคลื่อนและอคติ เช่น การระบุให้ใช้ภาษากลาง ไม่ตีตรา และต้องยึดรูบริกหรือ ตัวชี้วัดที่กำหนด (Buolamwini & Gebru, 2018; Floridi, 2023)


3.2 หลัก Do/Don’t สำหรับ Ethical Prompting ในโรงเรียน

การเขียน Prompt อย่างมีจริยธรรมควรยึดหลัก “ครูกำกับ จากนั้นAI ช่วยร่าง แล้วครูตรวจสอบ” เช่น ขอให้เสนอหลายทางเลือก อธิบายเหตุผลตามเกณฑ์ และให้ตรวจความเสี่ยงด้านความลำเอียงก่อนส่งออกเป็นผลลัพธ์ (Floridi, 2023; Mollick, 2024)

ในทางกลับกัน ไม่ควรใส่ข้อมูลผู้เรียนแบบระบุตัวตน  ไม่ขอให้ AI ตัดสินคุณค่า “ตัวผู้เรียน” จากข้อมูลจำกัด และไม่ให้ AI ให้คะแนนสุดท้ายแทนครูโดยไม่มีรูบริก และกระบวนการตรวจซ้ำ เพราะขัดต่อหลักความยุติธรรมและความรับผิดชอบในการประเมิน (Sadler, 1989; Wiliam, 2011)

 

3.3 ตัวอย่าง Prompt พร้อมใช้ สามารถปรับได้

 

ตัวอย่าง Prompt สำหรับ “ร่างรูบริก” ควรกำหนดระดับชั้น งานที่ประเมิน มิติการประเมิน และเงื่อนไขด้านภาษา และจริยธรรม เช่น ให้ใช้ภาษาที่เป็นกลาง ไม่ตีตรา และยกตัวอย่างชิ้นงานแต่ละระดับ เพื่อให้ครูตรวจสอบได้ง่ายและนำไปใช้สื่อสารกับผู้เรียนได้ (Brookhart, 2013; Mollick, 2024)

  ตัวอย่าง Prompt สำหรับ “สร้างคำถามวัดคิดขั้นสูง” ควรระบุให้เน้นเหตุผล หลักฐาน และความชัดเจนมากกว่าคำตอบท่องจำ และให้สร้างแนวคำตอบกับเกณฑ์ให้คะแนนที่ลดอคติ เพื่อสนับสนุนการประเมินเพื่อพัฒนา (Black & Wiliam, 1998; Wiliam, 2011)

 

4. AI เพื่อการประเมินผลที่ยุติธรรม  โปร่งใส ตรวจสอบได้ และไม่ลำเอียง

 

“ความยุติธรรม” ในการประเมินไม่ใช่การให้คะแนนเท่ากัน แต่คือการใช้เกณฑ์ที่ชัดเจน สม่ำเสมอ อธิบายได้ และไม่ทำให้ผู้เรียนกลุ่มใดเสียเปรียบโดยไม่มีเหตุผล ซึ่งสอดคล้องกับหลักการประเมินเพื่อพัฒนา (formative assessment) ที่เน้นข้อมูลย้อนกลับคุณภาพและการปรับการสอน (Black & Wiliam, 1998; Sadler, 1989)

เมื่อมี AI เข้ามาเกี่ยวข้อง ความยุติธรรมยิ่งต้องอาศัย “ความโปร่งใสของเกณฑ์” และ “ความรับผิดชอบของครู” เพราะ AI อาจสร้างข้อเสนอแนะที่ดูเหมาะสมแต่ไม่สอดคล้องกับเกณฑ์ หรือสะท้อนอคติในภาษาโดยไม่ตั้งใจ (Buolamwini & Gebru, 2018; Floridi, 2023)

         

4.1 AI ควรช่วยส่วนไหนของการประเมิน

AI เหมาะสำหรับช่วย “ร่างรูบริกและคำอธิบายระดับคุณภาพ” ช่วยสร้างตัวอย่างคำตอบ ช่วยร่างข้อเสนอแนะเชิงพัฒนา และช่วยสรุปข้อผิดพลาดที่พบบ่อยเพื่อนำไปปรับการสอน ซึ่งสนับสนุนการประเมินเพื่อพัฒนาและลดภาระงานซ้ำซ้อนของครู (Brookhart, 2013; Wiliam, 2011)

แต่ AI ไม่ควรทำแทนในส่วนของ “การตัดสินผลสุดท้าย” โดยไม่มีการตรวจของครู และไม่ควรตีความ

เจตคติ หรือคุณลักษณะผู้เรียนจากหลักฐานจำกัด เพราะขัดกับหลักการประเมินที่ต้องอ้างอิงหลักฐาน และเกณฑ์อย่างเป็นระบบ (Sadler, 1989; Floridi, 2023)


4.2 Workflow การประเมินยุติธรรมด้วย AI (6 ขั้น) มีดังนี้

ขั้นที่ 1 ครูกำหนดผลลัพธ์การเรียนรู้และหลักฐาน (LO และ Evidence) เพื่อให้การประเมินยึดเป้าหมายชัดเจน (Black & Wiliam, 1998; Sadler, 1989)

ขั้นที่ 2 ให้ AI ช่วยร่างรูบริก แล้วครูปรับให้สอดคล้องบริบทผู้เรียนและภาษาที่เหมาะสม (Brookhart, 2013; Mollick, 2024)

ขั้นที่ 3 ทำการเทียบมาตรฐาน (calibration) ด้วยชิ้นงานตัวอย่าง เพื่อให้การให้คะแนนสม่ำเสมอ (Sadler, 1989; Wiliam, 2011)

ขั้นที่ 4 ให้ AI ร่างข้อเสนอแนะ “ตามรูบริก” ไม่ใช่ตามความรู้สึก และให้เน้นข้อเสนอแนะเชิงพัฒนา (Brookhart, 2013; Black & Wiliam, 1998)

ขั้นที่ 5 ครูตรวจซ้ำ และสุ่มตรวจคุณภาพ เพื่อป้องกันภาษาลำเอียงหรือข้อเสนอแนะที่ไม่สอดคล้องเกณฑ์ (Buolamwini & Gebru, 2018; Floridi, 2023)

ขั้นที่ 6 สื่อสารความโปร่งใสต่อผู้เรียนด้วยเกณฑ์ ตัวอย่างงาน และช่องทางทบทวนผล ซึ่งช่วยสร้างความไว้วางใจในระบบการประเมิน (Wiliam, 2011; Brookhart, 2013)

4.3 ตัวอย่างการใช้จริง 1 กรณี

กรณีงานนำเสนอของนักเรียนระดับมัธยมต้น ครูสามารถใช้ AI ช่วยร่างรูบริก 4 มิติ แล้วทดลองให้คะแนนคลิปตัวอย่างเพื่อปรับเกณฑ์ จากนั้นให้ AI ร่างผลย้อนกลับ ( feedback) ตามรูบริกเป็นรายคน ก่อนที่ครูจะตรวจคำและปรับให้เหมาะสมกับบริบทผู้เรียน วิธีนี้ช่วยลดเวลาพิมพ์ข้อเสนอแนะจำนวนมาก แต่ยังคงหลักฐาน เกณฑ์ และความรับผิดชอบของครูอย่างครบถ้วน (Brookhart, 2013; Mollick, 2024; Wiliam, 2011)

 

5. ข้อควรระวังและข้อเสนอเชิงปฏิบัติสำหรับโรงเรียน

เพื่อให้การใช้ AI เกิดประโยชน์สูงสุด โรงเรียนควรกำหนด “แนวปฏิบัติขั้นต่ำ” ที่ทำได้จริง เช่น กติกาการไม่ใช้ข้อมูลระบุตัวตน การกำหนดงานที่อนุญาตให้ AI ช่วย และขั้นตอนการตรวจสอบก่อนเผยแพร่ผลลัพธ์ ทั้งหมดนี้สะท้อนหลักความรับผิดชอบและการกำกับดูแลเชิงจริยธรรม (Floridi, 2023; Ng et al., 2021)

นอกจากนี้ การพัฒนาครูสามารถทำแบบรวดเร็วและยั่งยืนผ่าน PLC ที่เน้น “คลัง Prompt” และ “คลัง Rubric” ร่วมกัน เพื่อให้ครูไม่ต้องเริ่มจากศูนย์ ลดภาระงาน และทำให้มาตรฐานการประเมินสม่ำเสมอขึ้น ซึ่งสอดคล้องกับแนวทางการประเมินเพื่อพัฒนาและการให้ข้อมูลย้อนกลับคุณภาพ (Black & Wiliam, 1998; Brookhart, 2013)

 

6. สรุป

AI ในปัจจุบัน เป็นทั้งโอกาสและความเสี่ยงสำหรับการศึกษา หากครูมีเพียง “เครื่องมือ” แต่ไม่มี “ความรู้เท่าทัน” งานครูอาจทำได้เร็วขึ้น แต่คุณภาพและความยุติธรรมอาจลดลง บทความนี้เสนอว่าการพัฒนาสมรรถนะครูควรยึด 3 แกนที่เชื่อมกันเป็นระบบ ได้แก่ AI Literacy เพื่อเข้าใจข้อจำกัดและตรวจสอบได้  Ethical Prompting เพื่อสั่งงานอย่างปลอดภัย เคารพผู้เรียน และลดอคติ และ Fair Assessment เพื่อให้การประเมินโปร่งใส มีเกณฑ์ และตรวจสอบได้ (Long & Magerko, 2020; Floridi, 2023; Black & Wiliam, 1998)

เมื่อวางระบบให้ AI เป็น “ผู้ช่วย” และให้ครูเป็น “ผู้รับผิดชอบคุณภาพ” ครูสามารถลดภาระงานที่ไม่จำเป็น เพิ่มคุณภาพ feedback และรักษาความไว้วางใจในกระบวนการวัดและประเมินผลได้อย่างยั่งยืน ซึ่งเป็นเป้าหมายสำคัญของการประเมินเพื่อพัฒนาในชั้นเรียน (Wiliam, 2011; Sadler, 1989)

 

เอกสารอ้างอิง (References)

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21) (pp. 610–623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922

Black, P., & Wiliam, D. (1998). Inside the black box: Raising standards through classroom assessment. Phi Delta Kappan, 80(2), 139–148.

Brookhart, S. M. (2013). How to create and use rubrics for formative assessment and grading. ASCD.

Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Proceedings of Machine Learning Research (Vol. 81, pp. 77–91). PMLR.

Floridi, L. (2023). The ethics of artificial intelligence: Principles, challenges, and opportunities. Oxford University Press.

Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1–16). Association for Computing Machinery.

Mollick, E. (2024). Co-intelligence: Living and working with AI. Penguin Press.

Ng, D. T. K., Leung, J. K. L., Chu, K. W. S., & Qiao, M. S. (2021). Conceptualizing AI literacy: An exploratory review. Computers and Education: Artificial Intelligence, 2, 100041.

Sadler, D. R. (1989). Formative assessment and the design of instructional systems. Instructional Science, 18, 119–144. https://doi.org/10.1007/BF00117714

 Wiliam, D. (2011). Embedded formative assessment. Solution Tree Press.

 
 
โพสต์ล่าสุด
หมวดหมู่
Archive

ศูนย์พัฒนาและประยุกต์วิชาการ | สาขาวิชาศึกษาศาสตร์

มหาวิทยาลัยสุโขทัยธรรมาธิราช Sukhothai Thammathirat Open University

bottom of page