Theo kinh nghiệm của tôi, một khía cạnh quan trọng là phải nắm được trực giác về tính trực giao của các hàm nói chung (btw, “trực giao” đồng nghĩa với “không tương quan”). Tôi thấy việc xem xét phiên bản rời rạc rất hữu ích. Giả sử có hai hàm được cho xấp xỉ như các tập dữ liệu rời rạc của các giá trị đo được theo thời gian (tôi tạm gọi trục x là “thời gian” – tên gọi không thực sự quan trọng).
Sau đó, hãy xem xét tập dữ liệu như một vector (được sắp xếp theo thời gian) trong không gian Euclid. Các hàm cơ sở trực giao có nghĩa là các vector dữ liệu đo được (xấp xỉ) trực giao trong không gian Euclid theo tích vô hướng chuẩn.
Tăng mật độ mẫu về vô cùng về mặt giới hạn phù hợp với tích vô hướng chuẩn dựa trên tích phân cho các hàm. (Có lẽ mối quan hệ này quá rõ ràng đối với nhiều người nên không cần phải chỉ ra.)
Ngoài tính trực giao, điều quan trọng cần lưu ý là Đa thức Legendre tạo thành một cơ sở của tất cả các hàm liên tục. Điều đó có nghĩa là, người ta có thể biểu diễn mọi hàm liên tục như một tổng vô hạn có trọng số của Đa thức Legendre. Tại sao điều đó lại thú vị? Một biểu diễn như vậy có một số tính chất tốt, ví dụ như việc cắt ngắn tổng vô hạn (nếu được sắp xếp theo bậc đa thức) sẽ loại bỏ/lọc bỏ các khía cạnh năng lượng cao của một hàm. Đó sẽ là một cách đơn giản để khử nhiễu hoặc nén, bao gồm cả việc điều khiển mức độ khử nhiễu hoặc nén thông qua số lượng hàm cơ sở được giữ lại. (Điều đó cũng có thể đạt được bằng biến đổi Fourier, nhưng đa thức đôi khi được ưu tiên hơn hoặc dễ xử lý hơn các hàm cơ sở lượng giác.)
Có lẽ không phải là tin tức lớn khi các hàm nằm trong một không gian vector, mặc dù là vô hạn chiều. Vì mục đích thực tiễn, thường hữu ích khi có một cách chuẩn để chiếu không gian đó xuống một không gian hữu hạn chiều, điều này được thực hiện bằng cách cắt ngắn đã nêu.
Việc biểu diễn các hàm liên tục (ví dụ: tín hiệu đo được) dưới dạng một đám mây các điểm dữ liệu để trực quan hóa, phân cụm hoặc xử lý hình học khác có thể hữu ích.
Tại sao điều này tốt hơn việc sử dụng đơn thức làm cơ sở? Vì đơn thức không trực giao, nên việc biểu diễn một hàm liên tục cho trước theo đơn thức sẽ khó khăn hơn. Để trực quan hóa, v.v., người ta sẽ thích một cơ sở có trục trực giao, phải không? Quan trọng hơn, biểu diễn thu được thường liên quan đến các hệ số rất cao hoặc “bùng nổ” để bù đắp hiệu ứng triệt tiêu khi bạn chèn một giá trị từ khoảng đơn vị vào ví dụ x30. Điều này trở thành một vấn đề ngay khi các giá trị được tính toán thông qua số học dấu phẩy động (tức là bất cứ khi nào bạn sử dụng máy tính) do “hiệu ứng số không bẩn”. Đó là, độ phân giải dấu phẩy động (đặc biệt là đối với các giá trị gần bằng không) không đủ để tính toán các đơn thức với độ chính xác chấp nhận được. Nó thường liên quan đến việc nhân các hệ số hàng triệu hoặc hàng tỷ với một cái gì đó gần bằng không. Mặc dù kết quả thực tế sẽ là các giá trị “ổn” như 0,35 hoặc tương tự, nhưng các phép tính dấu phẩy động sau đó sẽ tạo ra dữ liệu ngẫu nhiên hơn hoặc ít hơn trong những điều kiện khắc nghiệt như vậy. Vấn đề đó có thể được tránh đối với Đa thức Legendre bằng cách đánh giá chúng thông qua quan hệ truy hồi (công thức truy hồi của Bonnet) đảm bảo rằng các phép tính vẫn nằm trong phạm vi số ổn định.