arm64: tlbi: Set MAX_TLBI_OPS to PTRS_PER_PTE
authorWill Deacon <[email protected]>
Mon, 19 Nov 2018 18:08:49 +0000 (18:08 +0000)
committerWill Deacon <[email protected]>
Tue, 27 Nov 2018 19:01:21 +0000 (19:01 +0000)
In order to reduce the possibility of soft lock-ups, we bound the
maximum number of TLBI operations performed by a single call to
flush_tlb_range() to an arbitrary constant of 1024.

Whilst this does the job of avoiding lock-ups, we can actually be a bit
smarter by defining this as PTRS_PER_PTE. Due to the structure of our
page tables, using PTRS_PER_PTE means that an outer loop calling
flush_tlb_range() for entire table entries will end up performing just a
single TLBI operation for each entry. As an example, mremap()ing a 1GB
range mapped using 4k pages now requires only 512 TLBI operations when
moving the page tables as opposed to 262144 operations (512*512) when
using the current threshold of 1024.

Cc: Joel Fernandes <[email protected]>
Acked-by: Catalin Marinas <[email protected]>
Signed-off-by: Will Deacon <[email protected]>
arch/arm64/include/asm/tlbflush.h

index a629a4067aae551c67cd3f9e1e9aaabc5bd94ae5..bb4507a11b1b9f9c57eb5bf453a6bd95407eebdc 100644 (file)
@@ -186,7 +186,7 @@ static inline void flush_tlb_page(struct vm_area_struct *vma,
  * This is meant to avoid soft lock-ups on large TLB flushing ranges and not
  * necessarily a performance improvement.
  */
-#define MAX_TLBI_OPS   1024UL
+#define MAX_TLBI_OPS   PTRS_PER_PTE
 
 static inline void __flush_tlb_range(struct vm_area_struct *vma,
                                     unsigned long start, unsigned long end,
@@ -195,7 +195,7 @@ static inline void __flush_tlb_range(struct vm_area_struct *vma,
        unsigned long asid = ASID(vma->vm_mm);
        unsigned long addr;
 
-       if ((end - start) > (MAX_TLBI_OPS * stride)) {
+       if ((end - start) >= (MAX_TLBI_OPS * stride)) {
                flush_tlb_mm(vma->vm_mm);
                return;
        }