[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[tyndur-devel] [PATCH 02/11] kernel2: TRUE/FALSE durch true/false ersetzen



! bool: Standard C Bezeichner für Boolean-Werte

Signed-off-by: Andreas Freimuth <m.nemo@xxxxxxx>
---
 src/kernel2/src/arch/amd64/im/im.c         |    6 +-
 src/kernel2/src/arch/amd64/mm/mm_context.c |   68 ++++++++++++++--------------
 src/kernel2/src/arch/amd64/mm/mm_virt.c    |    6 +-
 3 files changed, 40 insertions(+), 40 deletions(-)

diff --git a/src/kernel2/src/arch/amd64/im/im.c b/src/kernel2/src/arch/amd64/im/im.c
index 2056524..791c8d9 100644
--- a/src/kernel2/src/arch/amd64/im/im.c
+++ b/src/kernel2/src/arch/amd64/im/im.c
@@ -599,7 +599,7 @@ void im_init()
     idt_set_gate(254, &im_int_stub_254, 0);
     idt_set_gate(255, &im_int_stub_255, 0);
 
-    use_apic = TRUE;
+    use_apic = true;
 }
 
 /**
@@ -638,7 +638,7 @@ static void idt_set_gate(size_t interrupt, vaddr_t handler, uint8_t privilege_le
 	// TODO: Segment gehoert hier nicht hartkodiert hin
 	idt[interrupt].segment = 0x8;
 	idt[interrupt].type = IDT_GATE_TYPE_TRAP;
-	idt[interrupt].present = TRUE;
+	idt[interrupt].present = true;
 	idt[interrupt].privilege_level = privilege_level;
 }
 
@@ -650,7 +650,7 @@ static void idt_set_gate(size_t interrupt, vaddr_t handler, uint8_t privilege_le
 void im_end_of_interrupt(uint8_t interrupt)
 {
     // Nur mit dem traditionellen PIC
-    if (use_apic == FALSE) {
+    if (use_apic == false) {
         if ((interrupt >= IM_IRQ_BASE) && (interrupt <= IM_IRQ_BASE + 16)) {
             pic_eoi(interrupt - IM_IRQ_BASE);
         }
diff --git a/src/kernel2/src/arch/amd64/mm/mm_context.c b/src/kernel2/src/arch/amd64/mm/mm_context.c
index b6d5274..fed401d 100644
--- a/src/kernel2/src/arch/amd64/mm/mm_context.c
+++ b/src/kernel2/src/arch/amd64/mm/mm_context.c
@@ -49,7 +49,7 @@
  */
 
 /// Bestimmt ob das NX-Bit benutzt werden soll.
-bool mmc_use_no_exec = FALSE;
+bool mmc_use_no_exec = false;
 
 
 /**
@@ -122,7 +122,7 @@ static void pm_free(mmc_pm_entry_t* pm)
  *
  * @param pm Pointer auf die Pagemap. Dieser muss gemappt sein. Am besten mit
  *              pm_get.
- * @param create Wenn TRUE, werden nicht existierende PDPTs erstellt und
+ * @param create Wenn true, werden nicht existierende PDPTs erstellt und
  *                  gemappt.
  * @param user Wenn die pdpt erstellt werden muss, bestimmt dieser Parameter ob
  *              die pdpt fuer den Usermode bestimmt ist, oder nicht.
@@ -138,7 +138,7 @@ static mmc_pdpt_entry_t* pdpt_get(mmc_pm_entry_t* pm,
         return vmm_kernel_automap((paddr_t) (pm[index] & PAGE_MASK), 
             PAGE_SIZE);
     } else {
-        if (create == TRUE) {
+        if (create == true) {
             // Speicher allozieren
             paddr_t phys = pmm_alloc(1);
             mmc_pdpt_entry_t* pdpt = vmm_kernel_automap(phys, PAGE_SIZE);
@@ -176,7 +176,7 @@ static mmc_pd_entry_t* pd_get(mmc_pdpt_entry_t* pdpt, size_t index,
         return vmm_kernel_automap((paddr_t) (pdpt[index] & PAGE_MASK),
             PAGE_SIZE);
     } else {
-        if (create == TRUE) {
+        if (create == true) {
             // Speicher allozieren
             paddr_t phys = pmm_alloc(1);
             mmc_pd_entry_t* pd = vmm_kernel_automap(phys, PAGE_SIZE);
@@ -216,7 +216,7 @@ static mmc_pt_entry_t* pt_get(mmc_pd_entry_t* pd, size_t index, bool create,
         return vmm_kernel_automap((paddr_t) (pd[index] & PAGE_MASK), 
             PAGE_SIZE);
     } else {
-        if ((create == TRUE) && ((pd[index] & 1) == 0)) {
+        if ((create == true) && ((pd[index] & 1) == 0)) {
             // Speicher allozieren
             paddr_t phys = pmm_alloc(1);
             mmc_pt_entry_t* pt = vmm_kernel_automap(phys, PAGE_SIZE);
@@ -251,7 +251,7 @@ static void pt_free(mmc_pt_entry_t* pt)
  *
  * @param context Kontext aus dem das PD kommen soll
  * @param address Adresse ahnand welcher das PD gesucht werden soll
- * @param create TRUE wenn die Strukturen erstellt werden sollen, FALSE wenn
+ * @param create true wenn die Strukturen erstellt werden sollen, false wenn
  *                  nicht.
  * @param user Wenn Stukturen erstellt werden, kann hiermit bestimmt werden, ob
  *              fuer den Usermode bestimmt sein sollen.
@@ -290,7 +290,7 @@ static mmc_pd_entry_t* pd_get_from_context(mmc_context_t context,
  *
  * @param context Kontext aus dem die Page table kommen soll
  * @param address Adresse ahnand welcher die Page table gesucht werden soll
- * @param create TRUE wenn die Strukturen erstellt werden sollen, FALSE wenn
+ * @param create true wenn die Strukturen erstellt werden sollen, false wenn
  *                  nicht.
  * @param user Wenn Stukturen erstellt werden, kann hiermit bestimmt werden, ob
  *              fuer den Usermode bestimmt sein sollen.
@@ -338,36 +338,36 @@ static mmc_pt_entry_t* pt_get_from_context(mmc_context_t context,
  * @param paddr Physische Speicheradresse
  * @param flags Flags, die gesetzt werden sollen
  *
- * @return TRUE, wenn die virtuelle Seite erfolgreich gemappt werden konnte,
- *    FALSE sonst.
+ * @return true, wenn die virtuelle Seite erfolgreich gemappt werden konnte,
+ *    false sonst.
  */
 static bool map_page
     (mmc_context_t context, vaddr_t vaddr, paddr_t paddr, int flags)
 {
     //kprintf("map 0x%16x => 0x%16x\n", vaddr, paddr);
-    bool big_page = FALSE;
-    bool user_page = FALSE;
+    bool big_page = false;
+    bool user_page = false;
     uint64_t internal_flags = flags;
     
     if ((flags & PAGE_FLAGS_BIG) != 0) {
-        big_page = TRUE;
+        big_page = true;
     }
 
     // Die NULL-Page bleibt aus Sicherheitsgruenden ungemappt
     if (vaddr == NULL) {
         panic("Versuchtes Mapping nach virtuell NULL");
-        return FALSE;
+        return false;
     }
     
     // Die Adressen muessen beide auf 4K ausgerichtet sein.
     if ((((((uintptr_t) vaddr | (uintptr_t) paddr)) % PAGE_SIZE) != 0) && 
-        (big_page == FALSE))
+        (big_page == false))
     {
         panic("Adressen sind nicht 4K-aligned (virt = %x, phys = %x)",
             vaddr, paddr);
-        return FALSE;
+        return false;
     } else if ((((((uintptr_t) vaddr | (uintptr_t) paddr)) % (PAGE_SIZE * 512))
-        != 0) && (big_page == TRUE))
+        != 0) && (big_page == true))
     {
         panic("Adressen sind nicht 4M-aligned (virt = %x, phys = %x)",
             vaddr, paddr);
@@ -375,16 +375,16 @@ static bool map_page
     
     // TODO:Flags pruefen.
     if ((internal_flags & PAGE_FLAGS_USER) != 0) {
-        user_page = TRUE;
+        user_page = true;
     }
     
     // Wenn das Nx-Bit gesetzt ist aber nicht benutzt werden darf, wird es
     // geloescht. Sonst wird das richtige NX-Bit gesetzt.
-    if ((mmc_use_no_exec == FALSE) && ((internal_flags & PAGE_FLAGS_NO_EXEC) !=
+    if ((mmc_use_no_exec == false) && ((internal_flags & PAGE_FLAGS_NO_EXEC) !=
         0)) 
     {
         internal_flags &= ~PAGE_FLAGS_NO_EXEC;
-    } else if ((mmc_use_no_exec == TRUE) && ((internal_flags & 
+    } else if ((mmc_use_no_exec == true) && ((internal_flags &
         PAGE_FLAGS_NO_EXEC) != 0)) 
     {
         internal_flags &= ~PAGE_FLAGS_NO_EXEC;
@@ -392,8 +392,8 @@ static bool map_page
     }
 
     // Ab hier wird zwischen grossen und kleinen Pages unterschieden
-    if (big_page == TRUE) {
-        mmc_pd_entry_t* pd = pd_get_from_context(context, vaddr, TRUE,
+    if (big_page == true) {
+        mmc_pd_entry_t* pd = pd_get_from_context(context, vaddr, true,
             user_page);
         size_t index = PAGE_DIRECTORY_INDEX((uintptr_t) vaddr);
 
@@ -410,14 +410,14 @@ static bool map_page
         pd_free(pd);
     } else {
         // PT anfordern, oder sie ggf. erstellen 
-        mmc_pt_entry_t* pt = pt_get_from_context(context, vaddr, TRUE,
+        mmc_pt_entry_t* pt = pt_get_from_context(context, vaddr, true,
             user_page);
         size_t index = PAGE_TABLE_INDEX((uintptr_t) vaddr);
         // Wenn sie nicht angefordert werden konnte, ist der eintrag im PD
         // durch eine Grosse Page belegt.
         if (pt == NULL) {
             panic("Doppelbelegung im Page Directory. (0x%lx)", (uintptr_t) vaddr);
-            return FALSE;
+            return false;
         }
 
         // Wenn der entsprechende Eintrag in der PT nicht frei ist, wird auch
@@ -427,7 +427,7 @@ static bool map_page
             panic("Doppelbelegung in einer Page Table. (0x%08x%08x => 0x%08x%08x)", 
                 ((uintptr_t) vaddr) >> 32, ((uintptr_t) vaddr) & 0xFFFFFFFF, 
                 ((uintptr_t) paddr) >> 32, ((uintptr_t) paddr) & 0xFFFFFFFF);
-            return FALSE;
+            return false;
         }
         
         // Wenn alles gut gelaufen ist, wirds jetzt ernst
@@ -436,7 +436,7 @@ static bool map_page
         pt_free(pt);
     }
 
-    return TRUE;
+    return true;
 }
 
 /**
@@ -453,8 +453,8 @@ static bool map_page
  * @param flags Flags
  * @param num Anzahl der Seiten
  * 
- * @return TRUE, wenn der bereich erfolgreich gemappt werden konnte, 
- *    FALSE sonst
+ * @return true, wenn der bereich erfolgreich gemappt werden konnte,
+ *    false sonst
  */
 bool mmc_map(mmc_context_t context, vaddr_t vaddr, paddr_t paddr, 
     int flags, size_t num_pages) 
@@ -475,14 +475,14 @@ bool mmc_map(mmc_context_t context, vaddr_t vaddr, paddr_t paddr,
         va = (vaddr_t)((uintptr_t)vaddr + i * PAGE_SIZE * page_count);
         pa = (paddr_t)((uintptr_t)paddr + i * PAGE_SIZE * page_count);
 
-        if(map_page(context, va, pa, flags) != TRUE)
+        if(map_page(context, va, pa, flags) != true)
         {
             /* TODO: Das bereits geschehene Mapping r�gig machen */
-            return FALSE;
+            return false;
         }
     }
 
-    return TRUE;
+    return true;
 }
 
 /**
@@ -492,8 +492,8 @@ bool mmc_map(mmc_context_t context, vaddr_t vaddr, paddr_t paddr,
  *    Adresse bezieht
  * @param vaddr Virtuelle Speicheradresse
  * 
- * @return TRUE, wenn die virtuelle Seite erfolgreich ungemappt werden konnte, 
- *    FALSE sonst
+ * @return true, wenn die virtuelle Seite erfolgreich ungemappt werden konnte,
+ *    false sonst
  */
 bool mmc_unmap(mmc_context_t context, vaddr_t vaddr, size_t count) 
 {
@@ -502,11 +502,11 @@ bool mmc_unmap(mmc_context_t context, vaddr_t vaddr, size_t count)
 
     /*for (i = 0; i < count; i++) {
         if (!unmap_page(page_directory, vaddr + i * PAGE_SIZE)) {
-            return FALSE;
+            return false;
         }
     }*/
 
-    return TRUE;
+    return true;
 }
 
 
diff --git a/src/kernel2/src/arch/amd64/mm/mm_virt.c b/src/kernel2/src/arch/amd64/mm/mm_virt.c
index 544b8cb..2b2e9c3 100644
--- a/src/kernel2/src/arch/amd64/mm/mm_virt.c
+++ b/src/kernel2/src/arch/amd64/mm/mm_virt.c
@@ -63,9 +63,9 @@ void vmm_init(mmc_context_t context)
     // Wenn das entsprechende Bit gesetzt ist, duerfen wir es gefahrlos
     // benutzen.
     if ((features & (1 << 20)) != 0) {
-        mmc_use_no_exec = TRUE;
+        mmc_use_no_exec = true;
     } else {
-        mmc_use_no_exec = FALSE;
+        mmc_use_no_exec = false;
     }
     
     // Den Kernel mappen
@@ -100,7 +100,7 @@ void vmm_init(mmc_context_t context)
 void vmm_init_local(mmc_context_t context)
 {
     // NXE aktivieren.
-    if (mmc_use_no_exec == TRUE) {
+    if (mmc_use_no_exec == true) {
         cpu_write_msr(0xC0000080, cpu_read_msr(0xC0000080) | (1 << 11));
     }
     
-- 
1.7.3.4