Ðề: Samsung họp báo ra mắt TV cao cấp nhất của mình tại Việt Nam
Công nghệ nhận diện giọng nói thực ra đã bắt đầu bằng ngôn ngữ lập trình thông minh Lisp từ năm 1958 bởi giáo sư John McCarthy. Ông cũng là người đặt nền tảng cho điện toán đám mây và là người sáng lập ra phòng thí nghiệm AI của đại học MIT và Stanford. Siri chính là một trong các hậu duệ nổi tiếng nhất của Lisp bên cạnh TellMe (Microsoft) và Vlingo (Android).
Cho đến nay, công nghệ nhận diện giọng nói cũng vẫn còn đang phát triển. Ngay cả Siri trên iOS cũng chưa thực sự hữu ích và cũng chỉ mới dùng lại ở mức "thú vị". Cứ hỏi các bạn dùng iphone 4S xem sử dụng Siri "thường xuyên" tới mức nào thì sẽ rõ. Các công nghệ ra lệnh bằng giọng nói trên các thiết bị dân dụng khác (ngoài smartphone) thì còn sơ khai hơn nữa. Việc tích hợp hiện nay chỉ mang tính "phô diễn" là chủ yếu và nếu tâng bốc một công nghệ có tuổi thọ đã 54 năm lên là công nghệ "đỉnh của đỉnh" gì đó thì thiết nghĩ cũng hơi thái quá. Bản thân mình đã thử dùng công nghệ ra lệnh này cho máy tính từ bản Win98 và cũng không thể kéo dài quá 1 tuần. Win7 có khá hơn nhưng cũng chỉ thú vị được vài ngày, rồi vẫn phải phụ thuộc vào con chuột
Công nghệ nhận diện cử chỉ cũng có một lịch sử lâu đời. Đến nay có thể nói ứng dụng của nó có nhiều hơn so với công nghệ nhận diện giọng nói. Mảng dân dụng chứng kiến sự nổi trội của Kinect từ Microsoft và Playstation Move từ Sony trong lĩnh vực game và giải trí. SS thấy có tích hợp vào TV nhưng mục đích điều khiển chưa nhiều ngoài chuyện tăng giảm kênh, con chuột vốn là những thao tác quá căn bản và remote đã đảm nhận với tốc độ nhanh gấp 10 lần. Việc thao tác nhiều trước màn hình còn dễ dẫn đến mỏi tay, đặc biệt là cơ bả vai. Bên cạnh đó còn phải ngồi đúng vị trí và khoảng cách nữa. Và dễ bị can thiệp hoặc chọc phá bởi người khác (con nít). Quá nhiều hạn chế chỉ để dành lấy một chữ "thú vị" trong tuần đầu tiên.
Chúng ta vẫn phải chờ trước khi có một cái gì đó thật đột phá!