Làm thế nào để bạn che dấu một giá trị trong python?
Tạo mặt nạ là một cách để thông báo cho các lớp xử lý trình tự biết rằng các dấu thời gian nhất định trong đầu vào bị thiếu và do đó nên bỏ qua khi xử lý dữ liệu Show
Đệm là một hình thức che dấu đặc biệt trong đó các bước che dấu ở đầu hoặc cuối chuỗi. Đệm xuất phát từ nhu cầu mã hóa dữ liệu chuỗi thành các lô liền kề. để làm cho tất cả các trình tự trong một lô phù hợp với độ dài tiêu chuẩn nhất định, cần phải đệm hoặc cắt bớt một số trình tự Chúng ta hãy xem xét kỹ Dữ liệu trình tự đệmKhi xử lý dữ liệu trình tự, các mẫu riêng lẻ thường có độ dài khác nhau. Xem xét ví dụ sau (văn bản được mã hóa dưới dạng từ)
Sau khi tra cứu từ vựng, dữ liệu có thể được vector hóa thành số nguyên, e. g
Dữ liệu là một danh sách lồng nhau trong đó các mẫu riêng lẻ có độ dài lần lượt là 3, 5 và 6. Vì dữ liệu đầu vào cho một mô hình học sâu phải là một tensor đơn (có dạng e. g. 9 trong trường hợp này), các mẫu ngắn hơn mục dài nhất cần được đệm bằng một số giá trị giữ chỗ (cách khác, người ta cũng có thể cắt ngắn các mẫu dài trước khi đệm các mẫu ngắn)Keras cung cấp một chức năng tiện ích để cắt bớt và đệm các danh sách Python theo độ dài chung. 0
[[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]] đắp mặt nạBây giờ tất cả các mẫu đều có độ dài đồng nhất, mô hình phải được thông báo rằng một phần dữ liệu thực sự là phần đệm và nên được bỏ qua. Cơ chế đó đang che đậy Có ba cách để giới thiệu mặt nạ đầu vào trong các mô hình Keras
Lớp tạo mặt nạ. [ [71, 1331, 4231] [73, 8, 3215, 55, 927], [83, 91, 1, 645, 1253, 927], ] 5 và [ [71, 1331, 4231] [73, 8, 3215, 55, 927], [83, 91, 1, 645, 1253, 927], ] 6Dưới mui xe, các lớp này sẽ tạo ra một tensor mặt nạ (tensor 2D có hình dạng 7) và gắn nó vào đầu ra tensor được trả về bởi lớp 6 hoặc 5 5 6Như bạn có thể thấy từ kết quả được in, mặt nạ là một tensor boolean 2D có hình dạng 0, trong đó mỗi mục nhập 1 riêng lẻ chỉ ra rằng nên bỏ qua dấu thời gian tương ứng trong quá trình xử lýTuyên truyền mặt nạ trong API chức năng và API tuần tựKhi sử dụng API chức năng hoặc API tuần tự, mặt nạ được tạo bởi lớp 5 hoặc 6 sẽ được truyền qua mạng cho bất kỳ lớp nào có khả năng sử dụng chúng (ví dụ: lớp RNN). Máy ảnh sẽ tự động tìm nạp mặt nạ tương ứng với đầu vào và chuyển nó tới bất kỳ lớp nào biết cách sử dụng nóChẳng hạn, trong mô hình Tuần tự sau đây, lớp 4 sẽ tự động nhận mặt nạ, nghĩa là nó sẽ bỏ qua các giá trị đệm 2Đây cũng là trường hợp của mô hình API chức năng sau 3Truyền mặt nạ tensors trực tiếp cho các lớpCác lớp có thể xử lý mặt nạ (chẳng hạn như lớp 4) có đối số 4 trong phương thức 7 của chúngTrong khi đó, các lớp tạo ra mặt nạ (e. g. 5) hiển thị một phương thức 9 mà bạn có thể gọiDo đó, bạn có thể chuyển đầu ra của phương thức [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]0 của lớp sản xuất mặt nạ sang phương thức 7 của lớp tiêu thụ mặt nạ, như thế này 1 0Hỗ trợ tạo mặt nạ trong các lớp tùy chỉnh của bạnĐôi khi, bạn có thể cần viết các lớp tạo mặt nạ (như 5) hoặc các lớp cần sửa đổi mặt nạ hiện tạiChẳng hạn, bất kỳ lớp nào tạo ra một tenxơ có chiều thời gian khác với đầu vào của nó, chẳng hạn như lớp [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]3 nối với chiều thời gian, sẽ cần sửa đổi mặt nạ hiện tại để các lớp xuôi dòng có thể đưa dấu thời gian được che vào đúng cách. Để làm điều này, lớp của bạn nên triển khai phương thức [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]4, phương thức này tạo ra một mặt nạ mới cho đầu vào và mặt nạ hiện tại Dưới đây là một ví dụ về lớp [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]5 cần sửa đổi mặt nạ hiện tại 1 2Đây là một ví dụ khác về lớp [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]6 có khả năng tạo mặt nạ từ các giá trị đầu vào 3____04Chọn tham gia che giấu sự lan truyền trên các lớp tương thíchHầu hết các lớp không sửa đổi kích thước thời gian, vì vậy không cần sửa đổi mặt nạ hiện tại. Tuy nhiên, họ vẫn có thể muốn có khả năng truyền mặt nạ hiện tại, không thay đổi, sang lớp tiếp theo. Đây là một hành vi chọn tham gia. Theo mặc định, một lớp tùy chỉnh sẽ hủy mặt nạ hiện tại (vì khung không có cách nào để biết liệu việc truyền mặt nạ có an toàn hay không) Nếu bạn có một lớp tùy chỉnh không sửa đổi thứ nguyên thời gian và nếu bạn muốn nó có thể truyền mặt nạ đầu vào hiện tại, bạn nên đặt [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]7 trong hàm tạo của lớp. Trong trường hợp này, hành vi mặc định của [[ 711 632 71 0 0 0] [ 73 8 3215 55 927 0] [ 83 91 1 645 1253 927]]0 là chỉ chuyển mặt nạ hiện tại qua Đây là một ví dụ về một lớp được đưa vào danh sách trắng để truyền mặt nạ 5Bây giờ, bạn có thể sử dụng lớp tùy chỉnh này ở giữa lớp tạo mặt nạ (như 5) và lớp sử dụng mặt nạ (như 4) và lớp này sẽ truyền mặt nạ dọc theo để đến lớp sử dụng mặt nạ 6 7Viết các lớp cần thông tin mặt nạMột số lớp là người tiêu dùng mặt nạ. họ chấp nhận một đối số 4 trong 52 và sử dụng nó để xác định xem có nên bỏ qua các bước thời gian nhất định hay khôngĐể viết một lớp như vậy, bạn chỉ cần thêm đối số 53 vào chữ ký 52 của mình. Mặt nạ được liên kết với đầu vào sẽ được chuyển đến lớp của bạn bất cứ khi nào có sẵnĐây là một ví dụ đơn giản dưới đây. một lớp tính toán softmax theo chiều thời gian (trục 1) của chuỗi đầu vào, đồng thời loại bỏ dấu thời gian bị che Mặt nạ boolean là gì?Mặt nạ Boolean, còn được gọi là lập chỉ mục boolean, là một tính năng trong Python NumPy cho phép lọc các giá trị trong các mảng có nhiều mảng .
Mặt nạ DF là gì?Mặt nạ phòng độc là gì? . cú pháp. Khung dữ liệu. mask(self, cond, other=nan, inplace=False, axis=None, level=None, errors='raise', try_cast=False) Tham số. Tên. 19-Aug-2022. used to replace values where the condition is True. Syntax: DataFrame.mask(self, cond, other=nan, inplace=False, axis=None, level=None, errors='raise', try_cast=False) Parameters: Name.19-Aug-2022. |