ข้ามไปที่เนื้อหา

🛰️ ระบบแผนที่ประสาทสัมผัส (Neural Mapping System)

"ทำให้หุ่นยนต์มองเห็นโลกผ่านคลื่นความถี่และแสดงผลในระดับจิตสำนึก"

ระบบ Neural Mapping ใน Stage 4 คือการเปลี่ยนจากการอ่านค่าระยะทางดิบ (Raw Data) ให้กลายเป็นภาพเชิงพื้นที่ (Spatial Visualization) ที่ AI และมนุษย์สามารถเข้าใจได้ง่าย


🛠️ สถาปัตยกรรมระบบ (Architecture)

การทำงานของระบบแบ่งออกเป็น 3 เลเยอร์หลัก:

  1. Reflex Layer (Physical Scan):
    • ESP32 จะเปิดโหมด Mapping Mode (50Hz)
    • ส่งข้อมูล DISTANCE_SCAN ผ่าน Socket.IO มาที่ Core Server
  2. Soul Layer (Processing & Safety):
    • main.py ทำหน้าที่เป็น Relay ข้อมูล
    • มีระบบ Autonomous Brake คอยเฝ้าระวังไม่ให้หุ่นยนต์เข้าใกล้สิ่งกีดขวางมากเกินไปในขณะสร้างแผนที่
  3. Visualization Layer (Neural Radar UI):
    • หน้าจอ Dashboard สไตล์ Glassmorphism
    • แสดงผล Radar Sweep แบบ Real-time บน HTML Canvas

🖥️ หน้าจอแสดงผล (Neural Radar Dashboard)

ท่านสามารถเข้าถึงหน้าจอแสดงผลแผนที่ได้ที่: http://localhost:8000/static/index.html

คุณสมบัติหลัก:

  • Real-time Radar: แสดงจุดกระทบของสิ่งกีดขวาง (Point Cloud) ย้อนหลัง 5 วินาที
  • Dynamic Scanning: ความเร็วการกวาดสัญญาณปรับเปลี่ยนตามโหมดการทำงาน
  • System Awareness: แสดงสถานะพลังงาน (Energy) และอารมณ์ (Mood) ของ AI ไปพร้อมกัน
  • Control Hub: ปุ่มเปิด/ปิดโหมด Mapping ได้ทันทีจากหน้าจอ

🚀 ทิศทางต่อไปในอนาคต

  • Occupancy Grid: การจำลองแผนที่ในรูปแบบตารางเพื่อจำตำแหน่งสิ่งกีดขวางถาวร
  • Pathfinding (A*): การคำนวณเส้นทางเดินที่ปลอดภัยที่สุดโดยหลีกเลี่ยงจุดที่ตรวจพบในแผนที่
  • SLAM-Lite: ระบบระบุพิกัดตัวเอง (Localization) บนแผนที่ที่สร้างขึ้น

Developed by GhostMicro Engineering Team