ข่าวสารผลิตภัณฑ์

การสร้างระบบอัจฉริยะใน Android

ใช้เวลาอ่าน 4 นาที
Matthew McCullough
รองประธานฝ่ายการจัดการผลิตภัณฑ์ของ Android Developer

Android กำลังเปลี่ยนจากระบบปฏิบัติการไปเป็นระบบอัจฉริยะ ซึ่งจะสร้างโอกาสในการมีส่วนร่วมกับแอปของคุณมากขึ้น โดยมีการประกาศในวันนี้ระหว่างThe Android Show การผสานรวมฮาร์ดแวร์และซอฟต์แวร์อย่างลึกซึ้งจะช่วยให้อุปกรณ์ Android สามารถคาดการณ์ความต้องการของผู้ใช้ได้ คุณจึงมุ่งเน้นที่การมอบประสบการณ์ดังกล่าวในเวลาที่เหมาะสมได้ ในส่วนนี้ เราจะประกาศ Gemini Intelligence ซึ่งเป็นชุดฟีเจอร์ใหม่ที่จะนำความสามารถที่ดีที่สุดของ Gemini มาสู่อุปกรณ์ Android ที่ล้ำสมัยที่สุดของเรา

การทำงานอัตโนมัติด้วย Gemini

Gemini Intelligence ช่วยขยายความสามารถของ Gemini ในการทำงานอัตโนมัติในแอปที่เลือกในนามของผู้ใช้ด้วยความโปร่งใสและการควบคุมในตัว ซึ่งจะสร้างช่องทางอื่นสำหรับการมีส่วนร่วมของผู้ใช้ และเพิ่มการเข้าชมที่มีความตั้งใจซื้อสูงไปยังแอปโดยที่คุณไม่ต้องเขียนโค้ดหรือทำงานด้านวิศวกรรมที่สำคัญ การอนุญาตให้ Gemini นำทางงานที่ซับซ้อนและมีหลายขั้นตอน เช่น การสั่งลาเต้จากคาเฟ่หรือการสร้างรถเข็นช็อปปิ้งจากรายการซื้อของชำในแอปโน้ต จะช่วยให้ Gemini จัดการด้านโลจิสติกส์ให้ผู้ใช้ได้ คุณจึงมีเวลาไปมุ่งเน้นที่การสร้างนวัตกรรมและฟีเจอร์ที่ยอดเยี่ยม 

เราทราบดีว่าบางครั้งผู้คนก็อยากจะเรียกดู แต่บางครั้งก็อยากจัดการงานอย่างรวดเร็ว ฟีเจอร์นี้เปิดตัวครั้งแรกกับพาร์ทเนอร์ด้านอาหารและบริการร่วมเดินทางที่เลือกไว้เพื่อสร้างคำสั่งซื้อของชำหรือขอใช้บริการร่วมเดินทาง และกำลังขยายการให้บริการไปยังหมวดหมู่และรูปแบบของอุปกรณ์ต่างๆ มากขึ้น ซึ่งรวมถึงอุปกรณ์พับได้ นาฬิกา รถยนต์ และแว่นตา XR 

TAS-Gif (1).gif

เพิ่มการมีส่วนร่วมด้วย AppFunctions

หากต้องการควบคุมวิธีที่เอเจนต์โต้ตอบกับแอปได้มากขึ้น คุณสามารถใช้ AppFunctions ของ Android ได้ ซึ่งช่วยให้คุณสามารถระบุเครื่องมือที่เฉพาะเจาะจง เช่น บริการ ข้อมูล และการดำเนินการ ให้กับระบบปฏิบัติการและเอเจนต์ได้โดยตรง พร้อมกับคำอธิบายภาษาที่เป็นธรรมชาติ จากนั้นระบบจะค้นพบและเรียกใช้เครื่องมือเหล่านี้ในอุปกรณ์ต่างๆ ซึ่งช่วยให้ผู้ใช้เรียกใช้ฟังก์ชันการทำงานของแอปผ่านระบบอัจฉริยะเพื่อรับประสบการณ์ที่ดียิ่งขึ้นและปรับแต่งได้มากขึ้นด้วยการทำงานอัตโนมัติ เราได้เริ่มทดสอบ API ระยะแรกเหล่านี้ในเวอร์ชันตัวอย่างแบบส่วนตัวกับแอปต่างๆ เช่น KakaoTalk เพื่อให้ผู้ใช้สามารถ "ส่งข้อความ" หรือ "เริ่มการโทรด้วยเสียง" ผ่านเฟรมเวิร์กใหม่นี้ AppFunctions ได้เปิดใช้การดำเนินการในเครื่องสำหรับกรณีการใช้งานของแอป 25 รายการในผู้ผลิตอุปกรณ์ต่างๆ แล้ว คุณสามารถทดลองใช้ API ในเครื่องและลงทะเบียนแสดงความสนใจเข้าร่วมโปรแกรมทดลองใช้ก่อนเปิดตัว AppFunctions เพื่อโอกาสในการผสานรวมอย่างเต็มรูปแบบ

เรามีเส้นทางการผสานรวมหลายเส้นทางเพื่อตอบโจทย์คุณในทุกขั้นตอนของการเดินทางด้านข่าวกรองนี้ ไม่ว่าจะเป็นการทำงานอัตโนมัติของแอปแบบ "ไม่ต้องเปลี่ยนแปลงโค้ด" ที่ง่ายดาย หรือการใช้ AppFunctions API เพื่อให้คุณควบคุมได้มากขึ้นในลักษณะที่คล้ายกับ MCP 

ประสบการณ์ของผู้ใช้ที่ดียิ่งขึ้นด้วยวิดเจ็ต

เรากำลังยกระดับประสบการณ์ของผู้ใช้ด้วยการขยายการรองรับวิดเจ็ตไปยังอุปกรณ์รูปแบบใหม่ๆ โดยเริ่มจากรถยนต์ ซึ่งจะเปิดโอกาสใหม่ๆ ให้คุณได้มีส่วนร่วมกับผู้ใช้ในยานพาหนะที่ใช้ร่วมกับ Android Auto ได้ 250 ล้านคัน 

Jetpack Glance ช่วยให้สร้างวิดเจ็ตคุณภาพสูงได้ง่ายๆ และตอนนี้ก็มีฟีเจอร์ใหม่ๆ ที่ทรงพลังมากขึ้นด้วยเฟรมเวิร์กพื้นฐานใหม่ที่ชื่อ RemoteCompose

  • การโต้ตอบแบบพรีเมียมที่มีประสิทธิภาพยิ่งขึ้น: RemoteCompose สร้างขึ้นเพื่อให้ปรับเปลี่ยนได้สูงและประหยัดแบตเตอรี่ จึงช่วยให้ Glance มอบการโต้ตอบแบบพรีเมียมที่มีประสิทธิภาพยิ่งขึ้นได้ เร็วๆ นี้ คุณจะใช้ประโยชน์จากความสามารถใหม่ๆ ได้ ซึ่งรวมถึงการเลื่อนอย่างรวดเร็ว ปุ่มที่สื่ออารมณ์ และเอฟเฟกต์อนุภาคเพื่อสร้างวิดเจ็ตที่น่าสนใจยิ่งขึ้น
  • ความเข้ากันได้แบบย้อนหลังในตัว: ฟีเจอร์ RemoteCompose ที่สื่ออารมณ์เหล่านี้รองรับการใช้งานทันทีใน Android 16 ขึ้นไป การใช้ Jetpack Glance เป็น API จะช่วยให้คุณรักษาความเข้ากันได้แบบย้อนหลังได้อย่างสมบูรณ์ วิดเจ็ตจะใช้ฟีเจอร์ UI ระดับพรีเมียมเหล่านี้โดยอัตโนมัติในอุปกรณ์รุ่นใหม่ๆ ขณะเดียวกันก็จะลดระดับลงอย่างราบรื่นเพื่อรองรับระบบปฏิบัติการเวอร์ชันเก่า

นอกจากนี้ RemoteCompose ยังเป็นเครื่องมือที่อยู่เบื้องหลังฟีเจอร์สร้างวิดเจ็ตของฉัน ซึ่งเป็นฟีเจอร์ที่ผู้ใช้สามารถขอความช่วยเหลือจาก Gemini เพื่อสร้างวิดเจ็ตที่กำหนดเองซึ่งปรับเปลี่ยนได้อย่างเต็มที่ สามารถปรับขนาดและเพิ่มประสิทธิภาพได้อย่างราบรื่นสำหรับหน้าจอหลักของผู้ใช้หรือนาฬิกา Wear OS

การสร้างแอปที่ปรับเปลี่ยนได้นอกเหนือจากโทรศัพท์

ตั้งแต่โทรศัพท์พับได้ แท็บเล็ต รถยนต์ที่เข้ากันได้ และชุดหูฟัง XR ไปจนถึง Googlebooks ใหม่ พื้นที่สำหรับแอป Android ได้ขยายออกไปในหน้าจอและรูปแบบต่างๆ การอัปเดตบางส่วนที่จะช่วยให้คุณสร้างแอปได้อย่างยืดหยุ่นมีดังนี้ 

morph-to-tablet.gif
  • Jetpack Navigation 3: Jetpack Navigation 3 เวอร์ชันล่าสุดของเรามีการรองรับแบบปรับอัตโนมัติที่ละเอียดยิ่งขึ้นโดยเพิ่ม Scene Decorator ลงใน Scene API คุณใช้เครื่องมือตกแต่งฉากเพื่อแก้ไขฉากที่คำนวณโดยกลยุทธ์ฉากของแอปได้ เช่น ใช้เพื่อเพิ่มองค์ประกอบ UI ทั่วไป เช่น แถบแอปด้านบนและแถบ/รางนำทางที่คุณต้องการเพิ่มในฉาก แทนที่จะเป็นระดับรายการนำทาง ตอนนี้ NavDisplay มีฟังก์ชันการทำงานในตัวที่ทำให้ รายการนำทางเป็นองค์ประกอบที่แชร์ คุณจึงเปลี่ยนฉากได้อย่างราบรื่น ดูข้อมูลเพิ่มเติมได้ที่ Nav3-recipes
  • Jetpack Compose: การนำ Compose มาใช้ในแอปยังคงเป็นวิธีที่ง่ายที่สุดในการเริ่มต้นสร้าง UI ที่ปรับเปลี่ยนตามอุปกรณ์ และเราต้องการให้คุณได้รับการสนับสนุนด้านสถาปัตยกรรมในระดับที่เหมาะสม เรากำลังพัฒนาชุดบล็อกการสร้างใหม่ใน Compose 1.11 สำหรับเลย์เอาต์ที่ตอบสนองตามอุปกรณ์และการปรับแต่งด้วย GridFlexboxMediaQuery และ Style เราอยากทราบความคิดเห็นของคุณเกี่ยวกับฟีเจอร์เหล่านี้ก่อนที่จะนำสถานะ "ทดลอง" ออก
  • คำแนะนำด้านการออกแบบ: สำรวจแกลเลอรีการออกแบบที่อัปเดตแล้วเพื่อรับแรงบันดาลใจ ฮับการออกแบบสำหรับเดสก์ท็อปใหม่ หรือคำแนะนำเกี่ยวกับเลย์เอาต์ที่ปรับเปลี่ยนได้เพื่อเริ่มต้นใช้งาน

หากต้องการประสบการณ์การใช้งานที่แตกต่างกันในแต่ละอุปกรณ์ โปรดใช้ประโยชน์จากการอัปเดตล่าสุดเพื่อทำสิ่งต่อไปนี้

  • Car App Library: เรากำลังปรับปรุงการพัฒนาซอฟต์แวร์โดยการขยาย Car App Library ซึ่งช่วยให้คุณ "สร้างครั้งเดียว" และมอบประสบการณ์สื่อที่ปรับแต่งและเพิ่มประสิทธิภาพเพื่อลดสิ่งรบกวนสมาธิได้ทั้งใน Android Auto และ Android Automotive OS นอกจากนี้ เรายังช่วยให้การมีส่วนร่วมในรถยนต์ดียิ่งขึ้นด้วยการขยายการรองรับแอปวิดีโอแบบปรับเปลี่ยนได้ เพื่อให้สามารถเล่นวิดีโอแบบเต็มหน้าจอได้เมื่อจอดรถ
  • Android XR SDK: Android XR SDK ช่วยให้คุณสร้างประสบการณ์ที่แตกต่างและปรับแต่งได้อย่างลึกซึ้งสำหรับอุปกรณ์ XR ที่หลากหลายมากขึ้น ซึ่งรวมถึงแว่นตา XR แบบมีสาย (เช่น Project Aura ของ XREAL) ในขณะที่แอปแบบปรับได้ที่มีอยู่จะปรากฏในสภาพแวดล้อมที่สมจริงโดยอัตโนมัติโดยไม่ต้องใช้ความพยายามในการพัฒนาเพิ่มเติม คุณสามารถเตรียมพร้อมสำหรับแว่นตาแสดงผลได้โดยใช้ Jetpack Compose Glimmer เพื่อสร้าง UI ที่ดูได้อย่างรวดเร็วซึ่งปรับให้เหมาะกับแว่นตาแสดงผล พร้อมกับ Jetpack Projected APIs เพื่อเชื่อมต่อประสบการณ์การใช้งานแอปจากโทรศัพท์ไปยังขอบเขตการมองเห็นของผู้ใช้ เวอร์ชันตัวอย่างสำหรับนักพัฒนา 4 ของ Android XR SDK ซึ่งจะเปิดตัวในสัปดาห์หน้าจะมาพร้อมกับคอมโพเนนต์แบบอินเทอร์แอกทีฟใหม่ๆ เช่น ชิปชื่อและกลุ่มปุ่ม ซึ่งจะเพิ่มประสิทธิภาพอินพุตสำหรับทัชแพดของแว่นตา ซึ่งจะเพิ่มประสิทธิภาพเวิร์กโฟลว์ด้วย ProjectedTestRule API ใหม่เพื่อทำให้สภาพแวดล้อมการทดสอบเป็นอัตโนมัติ

ยุคใหม่สำหรับผู้ใช้ Android

ตั้งแต่การเปลี่ยนไปใช้ระบบอัจฉริยะไปจนถึงการขยายรูปแบบใหม่ๆ เช่น Googlebooks, Android กำลังสร้างวิธีใหม่ๆ ให้ผู้ใช้ได้รับประโยชน์จากประสบการณ์การใช้งานอุปกรณ์มากขึ้น โดยมีนักพัฒนาแอปและผู้สร้างแอปเป็นศูนย์กลาง

ฟีเจอร์ Gemini Intelligence จะทยอยเปิดตัวเมื่อพร้อมใช้งาน โดยจะเริ่มจากโทรศัพท์ Samsung Galaxy และ Google Pixel รุ่นล่าสุดในช่วงฤดูร้อนนี้ นอกจากนี้ ฟีเจอร์นี้จะพร้อมให้บริการในอุปกรณ์ Android ของคุณ ซึ่งรวมถึงนาฬิกา รถยนต์ แว่นตา และแล็ปท็อปภายในปีนี้

โปรดรอติดตามข่าวสารเพิ่มเติมเกี่ยวกับการพัฒนาแอปในยุคใหม่นี้ที่ Google I/O ในสัปดาห์หน้า 

เขียนโดย

อ่านต่อ