Trong trường hợp bạn đã bỏ lỡ nó vào ngày hôm qua, Apple vừa cho chúng ta cái nhìn chính thức đầu tiên về iOS 16. Tất nhiên, nó không thực sự gọi nó như vậy — như năm ngoái, công ty đã nhấn mạnh một số cải tiến khả năng tiếp cận sắp tới cho hệ điều hành của mình, nói chỉ là họ sẽ đến “vào cuối năm nay với các bản cập nhật phần mềm trên các nền tảng của Apple”. Về cơ bản, đó là mã cho iOS 16, iPadOS 16, watchOS 9 và macOS 13.
Mặc dù các tính năng mà Apple đã công bố là những cải tiến tuyệt vời cho những người bị khiếm khuyết về thị giác, giọng nói hoặc vận động khác nhau, chúng cũng nói lên một số cải tiến tổng thể — đặc biệt là về AI và học máy — mà chúng ta có thể sẽ thấy trong suốt các thế hệ hệ điều hành tiếp theo của Apple. Nếu chúng ta đọc kỹ các thông báo, đây là một vài trong số những cải tiến chính mà chúng ta có thể mong đợi sẽ thấy trong iOS 16:
Mục lục
Phụ đề trực tiếp = Nhận dạng giọng nói tốt hơn
Android đã có tính năng phụ đề trực tiếp kể từ phiên bản 10 và bây giờ Apple sẽ có nó vào ba năm sau. Khi cài đặt này được bật, iPhone hoặc máy Mac của bạn (nếu có Apple silicon) sẽ tự động tạo phụ đề trong thời gian thực cho mọi nội dung âm thanh, bao gồm video, cuộc gọi FaceTime, cuộc gọi điện thoại và hơn thế nữa. Đó là một phần mở rộng tự nhiên của xử lý giọng nói trên thiết bị đã được giới thiệu vào năm ngoái trong iOS 15, nhưng nó nói lên một sự cải tiến lớn về độ tinh vi của tính năng đó.
Chúng tôi hy vọng điều này có nghĩa là sự cải thiện trong hiểu biết của Siri về các lệnh và cách đọc chính tả của bạn, nhưng người ta có thể dễ dàng thấy những tính năng này hiển thị ở những nơi khác. Lấy ví dụ, ứng dụng Notes, nơi người ta có thể hình dung tính năng “phiên âm” để tạo văn bản từ bất kỳ bản ghi âm hoặc video nào. Nếu Apple tính phí nó như một tính năng trợ năng, thì bản ghi của Live Caption sẽ cần phải chắc chắn và nó mở ra một thế giới khả năng cho phần còn lại của iOS 16.
Phản chiếu Apple Watch = Cải tiến AirPlay
Một tính năng hỗ trợ tiếp cận khác sẽ ra mắt vào cuối năm nay sẽ cho phép bạn phản chiếu Apple Watch trên iPhone và sử dụng màn hình iPhone để điều khiển đồng hồ các tính năng hỗ trợ tiếp cận bổ sung.
Apple sẽ cho phép Apple Watch phản chiếu vào cuối năm nay — nhờ những cải tiến mới của AirPlay.
Tuy nhiên, tính năng phản chiếu của Apple Watch cũng có những tác động hấp dẫn. Apple cho biết tính năng này “sử dụng tích hợp phần cứng và phần mềm, bao gồm cả những tiến bộ được xây dựng trên AirPlay. ” Điều đó không nhất thiết có nghĩa là chúng ta sẽ thấy một cái gì đó giống như AirPlay 3, nhưng có vẻ như có một số cải tiến sắp tới với AirPlay, có thể là theo cách của các khuôn khổ mới dành cho nhà phát triển.
Đáng chú ý, điều này có vẻ như nó cho phép các thiết bị giao tiếp ý định điều khiển theo cách mà AirPlay không phải lúc này. AirPlay đẩy âm thanh và video ra các thiết bị và cho phép thực hiện các điều khiển đơn giản (phát / tạm dừng, âm lượng, v.v.), nhưng việc cho phép các thiết bị tương thích với AirPlay phát tín hiệu cho các điều khiển cảm ứng nâng cao có vẻ mới và có thể dẫn đến một số tính năng mới đáng kinh ngạc.
Đây là một tình huống nguy hiểm: Nếu Apple có thể phản chiếu Apple Watch của bạn với iPhone của bạn và cho phép bạn tương tác hoàn toàn với nó, nó có thể phản chiếu iPhone của bạn với máy Mac hoặc iPad và làm điều tương tự! Đó chỉ là một tính năng thay đổi trò chơi.
Phát hiện cửa = Nhận dạng đối tượng AR trong thế giới thực
Apple đã âm thầm cải thiện khả năng nhận dạng đối tượng của mình trong một thời gian. Ví dụ: bạn có thể tìm kiếm tất cả mọi thứ trong ứng dụng Ảnh và nhận hình ảnh có chứa chúng và iOS 15 đã thêm tính năng tra cứu trực quan gọn gàng sử dụng máy ảnh để xác định thực vật và động vật, địa danh nổi tiếng, tác phẩm nghệ thuật và những thứ khác.
Giờ đây, Apple đã thông báo rằng họ sẽ bổ sung khả năng phát hiện cửa ra vào trong thời gian thực bằng ứng dụng Kính lúp, bao gồm đánh giá khoảng cách và đọc văn bản trên chúng. Nó chỉ dành cho các thiết bị có LiDAR (cách nó đo phạm vi), nhưng nó nói lên một sự cải tiến rộng rãi hơn trong nhận dạng đối tượng.

Camera của iPhone sẽ sớm có thể phát hiện ra cửa có mở hay không.
Trường hợp sử dụng rõ ràng nhất là kính thực tế tăng cường hoặc kính bảo hộ, dự kiến sẽ không được phát hành sớm nhất cho đến năm sau. Nhưng Apple đã có một khung ARKit mạnh mẽ dành cho các nhà phát triển, được sử dụng cho các ứng dụng AR và nó bao gồm khả năng nhận dạng và theo dõi một số vật dụng hàng ngày. Và sẽ không có gì lạ nếu Apple xem trước công nghệ mới sẽ không ra mắt trong một thời gian.
Có vẻ hợp lý khi cho rằng tính năng Phát hiện cửa là một phần mở rộng tự nhiên của công việc mà Apple đã làm trong phát hiện đối tượng và cảnh thực tế tăng cường. Vì vậy, đừng ngạc nhiên nếu bạn thấy bản demo tại WWDC về các tính năng khung ARKit mới dành cho nhà phát triển. Nó có thể bắt đầu trong iOS 16 với các ứng dụng AR mới, nhưng nó cũng nhất định sẽ xuất hiện trong các dự án lớn hơn nhiều khi Apple tiếp tục triển khai các công cụ phần mềm AR của mình để cuối cùng tích hợp vào kính AR.