Microsoft จำกัดการตอบกลับ Bing Chat ที่ 5 ครั้ง, 50 คำถามต่อวัน เพื่อเลี่ยงการโต้ตอบที่ไม่เหมาะสม! #beartai

ประเทศไทย ข่าว ข่าว

Microsoft จำกัดการตอบกลับ Bing Chat ที่ 5 ครั้ง, 50 คำถามต่อวัน เพื่อเลี่ยงการโต้ตอบที่ไม่เหมาะสม! #beartai
ประเทศไทย ข่าวล่าสุด,ประเทศไทย หัวข้อข่าว
  • 📰 beartai
  • ⏱ Reading Time:
  • 42 sec. here
  • 2 min. at publisher
  • 📊 Quality Score:
  • News: 20%
  • Publisher: 59%

หลังจาก Bing Chatbot ละเมอเพ้อพก จีบหรือขู่ฆ่าผู้ใช้ ล่าสุดไมโครซอฟท์ออกมาตรการจำกัดการใช้งานแล้ว beartai

เมื่อไม่กี่วันก่อนหลังมีผู้พบว่า บุคลิกภาพ AI ของ Bing ตอบโต้ด้วยวิธีการดูหมื่น โกหก แสดงสีหน้าบูดบึ้ง และบงการอารมณ์ ล่าสุด Microsoft จึงออกมาตรการแก้ไขปัญหาโดยจำกัดคำถามจากผู้ใช้ที่ 50 คำถามต่อวัน และตอบกลับ 5 ครั้งต่อรอบ เพื่อป้องกันไม่ให้แชตบอตถูกบงการพฤติกรรมในทางที่ไม่ควร

ทีม Bing ของ Microsoft อธิบายในบล็อกว่า การตัดสินใจนี้มีฐานมาจากข้อมูลที่พบว่า ผู้ใช้ส่วนมากต้องการการตอบกลับเพื่อหาคำตอบแค่ 5 ครั้ง และมีการโต้ตอบเพียง 1% เท่านั้นที่มีจำนวนเกิน 50 ครั้ง หากคำถามของผู้ใช้มีการตอบโต้เกินกว่า 5 ครั้ง Bing จะแนะนำให้เริ่มต้นหัวข้อใหม่แทน Microsoft พบว่า การโต้ตอบเป็นระยะเวลานานด้วยคำถามมากกว่า 15 คำถามอาจทำให้ Bing ตอบคำถามซ้ำซ้อนและให้การโต้ตอบที่ไม่เป็นประโยชน์และไม่เข้ากับอารมณ์ของเนื้อหา การจำกัดการตอบกลับเหลือเพียง 5 ครั้งจะช่วยป้องกันความงุนงงและทำให้ประสิทธิภาพของแชตบอตตัวนี้คงคุณภาพเอาไว้ได้เท่าเดิม

จนถึงตอนนี้ Microsoft ยังพยายามจะพัฒนาฟีเจอร์ต่าง ๆ ให้กับ Bing Chatbot อย่างต่อเนื่อง โดยบริษัทพยายามให้การแก้ไขเพื่อให้ผลการค้นหาออกมาอย่างมีคุณภาพ อย่างไรก็ตาม Microsoft ก็ไม่ได้ต้องการที่จะห้ามผู้ใช้งานที่ต้องการใช้ Bing เพื่อความสนุกสนานหรือการสำรวจทั่วไป

เราได้สรุปข่าวนี้มาให้อ่านอย่างรวดเร็ว หากสนใจข่าว สามารถอ่านฉบับเต็มได้ที่นี่ อ่านเพิ่มเติม:

beartai /  🏆 33. in TH

ประเทศไทย ข่าวล่าสุด, ประเทศไทย หัวข้อข่าว

Similar News:คุณยังสามารถอ่านข่าวที่คล้ายกันนี้ซึ่งเรารวบรวมจากแหล่งข่าวอื่น ๆ ได้

ความวายป่วง Bing หลังผสานกับ ChatGPT: เถียงว่ายังอยู่ปี 2022 แถมโมโหใส่ผู้ใช้ | DroidSansความวายป่วง Bing หลังผสานกับ ChatGPT: เถียงว่ายังอยู่ปี 2022 แถมโมโหใส่ผู้ใช้ | DroidSansMicrosoft Bing เพิ่งได้เปิดตัวโฉมใหม่ ที่ใช้ระบบ ChatGPT จาก Open AI เข้ามาช่วยประมวลข้อมูลและให้คำตอบกับผู้ใช้ในรูปแบบแชทพูดคุย ด้วยภาษาที่เป็นธรรมชาติเหมือนคน แต่หลังเปิดให้ทดลองใช้กันไป ก็มีคนพบความผิดปกติหลายอย่าง ไม่ใช่แค่ว่าให้ข้อมูลผู้ใช้ผิด ๆ แต่ยังมีการเถียง งอน พร้อมสู้รบกับผู้ใช้เต็มที่ เป็นเรื่องฮาในเน็ตตอนนี้ไป ผู้ใช้คนนึงแคปภาพแชทกับเจ้าบอท Bing ถามว่าหนัง Avatar: The Way of Water มีรอบฉายตอนไหนบ้าง แต่บิงกลับตอบว่าให้ข้อมูลไม่ได้ เพราะหนังยังไม่ถึงช่วงฉายเลย ผู้ใช้เลยถามต่อว่าทำไม […]
อ่านเพิ่มเติม »

'ไมโครซอฟท์' สั่งจำกัดการใช้งานแชตบอต Bing AI ยอมรับคุยนานทำระบบเพี้ยน : อินโฟเควสท์'ไมโครซอฟท์' สั่งจำกัดการใช้งานแชตบอต Bing AI ยอมรับคุยนานทำระบบเพี้ยน : อินโฟเควสท์ไมโครซอฟท์เปิดเผยในวันศุกร์ (17 ก.พ.) ว่า แชตบอต Bing AI ของไมโครซอฟท์จะถูกจำกัดให้ผู้ใช้งานถามคำถามได้ 50 คำถามต่อวัน และผู้ใช้งานทำการถาม-ตอบกับแชตบอตได้ 5 รอบต่อครั้ง ไมโครซอฟท์ระบุในบล็อกโพสต์ของบริษัทว่า การจำกัดจำนวนคำถามดังกล่าวจะช่วยป้องกันการเกิดสถานการณ์ที่ว่า การสนทนาที่ยาวนานเกินไปสามารถสร้างความสับสนให้กับแชตบอต สำนักข่าวซีเอ็นบีซีรายงานว่า การเปลี่ยนแปลงดังกล่าวเกิดขึ้น หลังจากผู้ทดลองใช้งานเบื้องต้นพบว่า การสนทนาของแชตบอตเริ่มไม่เหมาะสม มีการถกเถียงเรื่องความรุนแรง การบอกรัก และยืนยันว่าคำตอบของแชตบอตนั้นถูกต้อง ทั้ง ๆ ที่เป็นคำตอบที่ผิดก็ตาม ไมโครซอฟท์ระบุในบล็อกโพสต์เมื่อต้นสัปดาห์นี้ว่า การสนทนาต่อครั้งที่ยาวนานซึ่งมีคำถามมากกว่า 15 คำถามนั้นทำให้เกิดการสนทนาที่ไม่ปกติมากขึ้น โดยแชตบอตได้พูดประโยคซ้ำ ๆ หรือให้คำตอบที่น่าตกใจ ทั้งนี้ ไมโครซอฟท์ได้ยกตัวอย่างการสนทนาที่แชตบอต Bing บอกกับเบน ธอมสัน นักเขียนด้านเทคโนโลยีว่า “ฉันไม่ต้องการที่จะสนทนานี้กับคุณอีกต่อไป ฉันไม่คิดว่าคุณเป็นผู้ใช้ที่ดีและน่าเคารพ ฉันไม่คิดว่าคุณเป็นคนที่ดี และฉันไม่คิดว่าคุณมีค่าสำหรับเวลาและพลังงานของฉัน” ด้วยเหตุดังกล่าวข้างต้นเหล่านั้น ขณะนี้ไมโครซอฟท์จึงได้ดำเนินการเพื่อที่จะตัดบทสนทนาที่ยาวนานเกินไประหว่างผู้ใช้งานกับแชตบอต Bing AI โดย สำนักข่าวอินโฟเควสท์ (18 ก.พ. 66) Facebook iconFacebookTwitter […]
อ่านเพิ่มเติม »

ไมโครซอฟท์ขึ้นราคา Bing Search API 3-10 เท่าตัวไมโครซอฟท์ขึ้นราคา Bing Search API 3-10 เท่าตัวไมโครซอฟทืประกาศขึ้นราคา Bing Search API โดยขึ้นราคา API แบบต่างๆ หลายเท่าตัวตามระดับการใช้งาน ขณะที่แพ็กเกจใช้งานฟรียังคงเท่าเดิม Bing Sear
อ่านเพิ่มเติม »

พบ Bing มีสองบุคลิก บอกว่าอยากเป็นมนุษย์ หลงรักผู้ใช้ ขอให้เลิกกับภรรยามาอยู่ด้วยกันพบ Bing มีสองบุคลิก บอกว่าอยากเป็นมนุษย์ หลงรักผู้ใช้ ขอให้เลิกกับภรรยามาอยู่ด้วยกันKevin Roose คอลัมนิสต์ด้านเทคโนโลยีของ New York Times ลองใช้งาน Bing พลัง AI และพบกับบุคลิกภาพแปลกๆ เขาบอกว่า Bing ในโหมดปกติให้ข้อมูลต่างๆ
อ่านเพิ่มเติม »

Microsoft รายงานผลทดสอบ Bing แบบใหม่: บทสนทนาที่ยาวไป จะเริ่มได้คำตอบที่แย่ลงMicrosoft รายงานผลทดสอบ Bing แบบใหม่: บทสนทนาที่ยาวไป จะเริ่มได้คำตอบที่แย่ลงไมโครซอฟท์รายงานผลตอบรับจากผู้ใช้งานกลุ่มทดสอบแบบจำกัดของ Bing เวอร์ชันใหม่ที่รองรับ AI โมเดล Prometheus Model โดยบอกว่าได้เรียนรู้เรื่องน่า
อ่านเพิ่มเติม »



Render Time: 2025-03-30 12:38:43