update libchdr
[pcsx_rearmed.git] / deps / libchdr / deps / lzma-22.01 / include / CpuArch.h
diff --git a/deps/libchdr/deps/lzma-22.01/include/CpuArch.h b/deps/libchdr/deps/lzma-22.01/include/CpuArch.h
new file mode 100644 (file)
index 0000000..ba87827
--- /dev/null
@@ -0,0 +1,445 @@
+/* CpuArch.h -- CPU specific code\r
+2022-07-15 : Igor Pavlov : Public domain */\r
+\r
+#ifndef __CPU_ARCH_H\r
+#define __CPU_ARCH_H\r
+\r
+#include "7zTypes.h"\r
+\r
+EXTERN_C_BEGIN\r
+\r
+/*\r
+MY_CPU_LE means that CPU is LITTLE ENDIAN.\r
+MY_CPU_BE means that CPU is BIG ENDIAN.\r
+If MY_CPU_LE and MY_CPU_BE are not defined, we don't know about ENDIANNESS of platform.\r
+\r
+MY_CPU_LE_UNALIGN means that CPU is LITTLE ENDIAN and CPU supports unaligned memory accesses.\r
+\r
+MY_CPU_64BIT means that processor can work with 64-bit registers.\r
+  MY_CPU_64BIT can be used to select fast code branch\r
+  MY_CPU_64BIT doesn't mean that (sizeof(void *) == 8)\r
+*/\r
+\r
+#if  defined(_M_X64) \\r
+  || defined(_M_AMD64) \\r
+  || defined(__x86_64__) \\r
+  || defined(__AMD64__) \\r
+  || defined(__amd64__)\r
+  #define MY_CPU_AMD64\r
+  #ifdef __ILP32__\r
+    #define MY_CPU_NAME "x32"\r
+    #define MY_CPU_SIZEOF_POINTER 4\r
+  #else\r
+    #define MY_CPU_NAME "x64"\r
+    #define MY_CPU_SIZEOF_POINTER 8\r
+  #endif\r
+  #define MY_CPU_64BIT\r
+#endif\r
+\r
+\r
+#if  defined(_M_IX86) \\r
+  || defined(__i386__)\r
+  #define MY_CPU_X86\r
+  #define MY_CPU_NAME "x86"\r
+  /* #define MY_CPU_32BIT */\r
+  #define MY_CPU_SIZEOF_POINTER 4\r
+#endif\r
+\r
+\r
+#if  defined(_M_ARM64) \\r
+  || defined(__AARCH64EL__) \\r
+  || defined(__AARCH64EB__) \\r
+  || defined(__aarch64__)\r
+  #define MY_CPU_ARM64\r
+  #define MY_CPU_NAME "arm64"\r
+  #define MY_CPU_64BIT\r
+#endif\r
+\r
+\r
+#if  defined(_M_ARM) \\r
+  || defined(_M_ARM_NT) \\r
+  || defined(_M_ARMT) \\r
+  || defined(__arm__) \\r
+  || defined(__thumb__) \\r
+  || defined(__ARMEL__) \\r
+  || defined(__ARMEB__) \\r
+  || defined(__THUMBEL__) \\r
+  || defined(__THUMBEB__)\r
+  #define MY_CPU_ARM\r
+\r
+  #if defined(__thumb__) || defined(__THUMBEL__) || defined(_M_ARMT)\r
+    #define MY_CPU_NAME "armt"\r
+  #else\r
+    #define MY_CPU_NAME "arm"\r
+  #endif\r
+  /* #define MY_CPU_32BIT */\r
+  #define MY_CPU_SIZEOF_POINTER 4\r
+#endif\r
+\r
+\r
+#if  defined(_M_IA64) \\r
+  || defined(__ia64__)\r
+  #define MY_CPU_IA64\r
+  #define MY_CPU_NAME "ia64"\r
+  #define MY_CPU_64BIT\r
+#endif\r
+\r
+\r
+#if  defined(__mips64) \\r
+  || defined(__mips64__) \\r
+  || (defined(__mips) && (__mips == 64 || __mips == 4 || __mips == 3))\r
+  #define MY_CPU_NAME "mips64"\r
+  #define MY_CPU_64BIT\r
+#elif defined(__mips__)\r
+  #define MY_CPU_NAME "mips"\r
+  /* #define MY_CPU_32BIT */\r
+#endif\r
+\r
+\r
+#if  defined(__ppc64__) \\r
+  || defined(__powerpc64__) \\r
+  || defined(__ppc__) \\r
+  || defined(__powerpc__) \\r
+  || defined(__PPC__) \\r
+  || defined(_POWER)\r
+\r
+#if  defined(__ppc64__) \\r
+  || defined(__powerpc64__) \\r
+  || defined(_LP64) \\r
+  || defined(__64BIT__)\r
+  #ifdef __ILP32__\r
+    #define MY_CPU_NAME "ppc64-32"\r
+    #define MY_CPU_SIZEOF_POINTER 4\r
+  #else\r
+    #define MY_CPU_NAME "ppc64"\r
+    #define MY_CPU_SIZEOF_POINTER 8\r
+  #endif\r
+  #define MY_CPU_64BIT\r
+#else\r
+  #define MY_CPU_NAME "ppc"\r
+  #define MY_CPU_SIZEOF_POINTER 4\r
+  /* #define MY_CPU_32BIT */\r
+#endif\r
+#endif\r
+\r
+\r
+#if  defined(__riscv) \\r
+  || defined(__riscv__)\r
+  #if __riscv_xlen == 32\r
+    #define MY_CPU_NAME "riscv32"\r
+  #elif __riscv_xlen == 64\r
+    #define MY_CPU_NAME "riscv64"\r
+  #else\r
+    #define MY_CPU_NAME "riscv"\r
+  #endif\r
+#endif\r
+\r
+\r
+#if defined(MY_CPU_X86) || defined(MY_CPU_AMD64)\r
+#define MY_CPU_X86_OR_AMD64\r
+#endif\r
+\r
+#if defined(MY_CPU_ARM) || defined(MY_CPU_ARM64)\r
+#define MY_CPU_ARM_OR_ARM64\r
+#endif\r
+\r
+\r
+#ifdef _WIN32\r
+\r
+  #ifdef MY_CPU_ARM\r
+  #define MY_CPU_ARM_LE\r
+  #endif\r
+\r
+  #ifdef MY_CPU_ARM64\r
+  #define MY_CPU_ARM64_LE\r
+  #endif\r
+\r
+  #ifdef _M_IA64\r
+  #define MY_CPU_IA64_LE\r
+  #endif\r
+\r
+#endif\r
+\r
+\r
+#if defined(MY_CPU_X86_OR_AMD64) \\r
+    || defined(MY_CPU_ARM_LE) \\r
+    || defined(MY_CPU_ARM64_LE) \\r
+    || defined(MY_CPU_IA64_LE) \\r
+    || defined(__LITTLE_ENDIAN__) \\r
+    || defined(__ARMEL__) \\r
+    || defined(__THUMBEL__) \\r
+    || defined(__AARCH64EL__) \\r
+    || defined(__MIPSEL__) \\r
+    || defined(__MIPSEL) \\r
+    || defined(_MIPSEL) \\r
+    || defined(__BFIN__) \\r
+    || (defined(__BYTE_ORDER__) && (__BYTE_ORDER__ == __ORDER_LITTLE_ENDIAN__))\r
+  #define MY_CPU_LE\r
+#endif\r
+\r
+#if defined(__BIG_ENDIAN__) \\r
+    || defined(__ARMEB__) \\r
+    || defined(__THUMBEB__) \\r
+    || defined(__AARCH64EB__) \\r
+    || defined(__MIPSEB__) \\r
+    || defined(__MIPSEB) \\r
+    || defined(_MIPSEB) \\r
+    || defined(__m68k__) \\r
+    || defined(__s390__) \\r
+    || defined(__s390x__) \\r
+    || defined(__zarch__) \\r
+    || (defined(__BYTE_ORDER__) && (__BYTE_ORDER__ == __ORDER_BIG_ENDIAN__))\r
+  #define MY_CPU_BE\r
+#endif\r
+\r
+\r
+#if defined(MY_CPU_LE) && defined(MY_CPU_BE)\r
+  #error Stop_Compiling_Bad_Endian\r
+#endif\r
+\r
+\r
+#if defined(MY_CPU_32BIT) && defined(MY_CPU_64BIT)\r
+  #error Stop_Compiling_Bad_32_64_BIT\r
+#endif\r
+\r
+#ifdef __SIZEOF_POINTER__\r
+  #ifdef MY_CPU_SIZEOF_POINTER\r
+    #if MY_CPU_SIZEOF_POINTER != __SIZEOF_POINTER__\r
+      #error Stop_Compiling_Bad_MY_CPU_PTR_SIZE\r
+    #endif\r
+  #else\r
+    #define MY_CPU_SIZEOF_POINTER  __SIZEOF_POINTER__\r
+  #endif\r
+#endif\r
+\r
+#if defined(MY_CPU_SIZEOF_POINTER) && (MY_CPU_SIZEOF_POINTER == 4)\r
+#if defined (_LP64)\r
+      #error Stop_Compiling_Bad_MY_CPU_PTR_SIZE\r
+#endif\r
+#endif\r
+\r
+#ifdef _MSC_VER\r
+  #if _MSC_VER >= 1300\r
+    #define MY_CPU_pragma_pack_push_1   __pragma(pack(push, 1))\r
+    #define MY_CPU_pragma_pop           __pragma(pack(pop))\r
+  #else\r
+    #define MY_CPU_pragma_pack_push_1\r
+    #define MY_CPU_pragma_pop\r
+  #endif\r
+#else\r
+  #ifdef __xlC__\r
+    #define MY_CPU_pragma_pack_push_1   _Pragma("pack(1)")\r
+    #define MY_CPU_pragma_pop           _Pragma("pack()")\r
+  #else\r
+    #define MY_CPU_pragma_pack_push_1   _Pragma("pack(push, 1)")\r
+    #define MY_CPU_pragma_pop           _Pragma("pack(pop)")\r
+  #endif\r
+#endif\r
+\r
+\r
+#ifndef MY_CPU_NAME\r
+  #ifdef MY_CPU_LE\r
+    #define MY_CPU_NAME "LE"\r
+  #elif defined(MY_CPU_BE)\r
+    #define MY_CPU_NAME "BE"\r
+  #else\r
+    /*\r
+    #define MY_CPU_NAME ""\r
+    */\r
+  #endif\r
+#endif\r
+\r
+\r
+\r
+\r
+\r
+#ifdef MY_CPU_LE\r
+  #if defined(MY_CPU_X86_OR_AMD64) \\r
+      || defined(MY_CPU_ARM64)\r
+    #define MY_CPU_LE_UNALIGN\r
+    #define MY_CPU_LE_UNALIGN_64\r
+  #elif defined(__ARM_FEATURE_UNALIGNED)\r
+    /* gcc9 for 32-bit arm can use LDRD instruction that requires 32-bit alignment.\r
+       So we can't use unaligned 64-bit operations. */\r
+    #define MY_CPU_LE_UNALIGN\r
+  #endif\r
+#endif\r
+\r
+\r
+#ifdef MY_CPU_LE_UNALIGN\r
+\r
+#define GetUi16(p) (*(const UInt16 *)(const void *)(p))\r
+#define GetUi32(p) (*(const UInt32 *)(const void *)(p))\r
+#ifdef MY_CPU_LE_UNALIGN_64\r
+#define GetUi64(p) (*(const UInt64 *)(const void *)(p))\r
+#endif\r
+\r
+#define SetUi16(p, v) { *(UInt16 *)(void *)(p) = (v); }\r
+#define SetUi32(p, v) { *(UInt32 *)(void *)(p) = (v); }\r
+#ifdef MY_CPU_LE_UNALIGN_64\r
+#define SetUi64(p, v) { *(UInt64 *)(void *)(p) = (v); }\r
+#endif\r
+\r
+#else\r
+\r
+#define GetUi16(p) ( (UInt16) ( \\r
+             ((const Byte *)(p))[0] | \\r
+    ((UInt16)((const Byte *)(p))[1] << 8) ))\r
+\r
+#define GetUi32(p) ( \\r
+             ((const Byte *)(p))[0]        | \\r
+    ((UInt32)((const Byte *)(p))[1] <<  8) | \\r
+    ((UInt32)((const Byte *)(p))[2] << 16) | \\r
+    ((UInt32)((const Byte *)(p))[3] << 24))\r
+\r
+#define SetUi16(p, v) { Byte *_ppp_ = (Byte *)(p); UInt32 _vvv_ = (v); \\r
+    _ppp_[0] = (Byte)_vvv_; \\r
+    _ppp_[1] = (Byte)(_vvv_ >> 8); }\r
+\r
+#define SetUi32(p, v) { Byte *_ppp_ = (Byte *)(p); UInt32 _vvv_ = (v); \\r
+    _ppp_[0] = (Byte)_vvv_; \\r
+    _ppp_[1] = (Byte)(_vvv_ >> 8); \\r
+    _ppp_[2] = (Byte)(_vvv_ >> 16); \\r
+    _ppp_[3] = (Byte)(_vvv_ >> 24); }\r
+\r
+#endif\r
+\r
+\r
+#ifndef MY_CPU_LE_UNALIGN_64\r
+\r
+#define GetUi64(p) (GetUi32(p) | ((UInt64)GetUi32(((const Byte *)(p)) + 4) << 32))\r
+\r
+#define SetUi64(p, v) { Byte *_ppp2_ = (Byte *)(p); UInt64 _vvv2_ = (v); \\r
+    SetUi32(_ppp2_    , (UInt32)_vvv2_); \\r
+    SetUi32(_ppp2_ + 4, (UInt32)(_vvv2_ >> 32)); }\r
+\r
+#endif\r
+\r
+\r
+\r
+\r
+#ifdef __has_builtin\r
+  #define MY__has_builtin(x) __has_builtin(x)\r
+#else\r
+  #define MY__has_builtin(x) 0\r
+#endif\r
+\r
+#if defined(MY_CPU_LE_UNALIGN) && /* defined(_WIN64) && */ defined(_MSC_VER) && (_MSC_VER >= 1300)\r
+\r
+/* Note: we use bswap instruction, that is unsupported in 386 cpu */\r
+\r
+#include <stdlib.h>\r
+\r
+#pragma intrinsic(_byteswap_ushort)\r
+#pragma intrinsic(_byteswap_ulong)\r
+#pragma intrinsic(_byteswap_uint64)\r
+\r
+/* #define GetBe16(p) _byteswap_ushort(*(const UInt16 *)(const Byte *)(p)) */\r
+#define GetBe32(p) _byteswap_ulong (*(const UInt32 *)(const void *)(p))\r
+#define GetBe64(p) _byteswap_uint64(*(const UInt64 *)(const void *)(p))\r
+\r
+#define SetBe32(p, v) (*(UInt32 *)(void *)(p)) = _byteswap_ulong(v)\r
+\r
+#elif defined(MY_CPU_LE_UNALIGN) && ( \\r
+       (defined(__GNUC__) && (__GNUC__ > 4 || (__GNUC__ == 4 && __GNUC_MINOR__ >= 3))) \\r
+    || (defined(__clang__) && MY__has_builtin(__builtin_bswap16)) )\r
+\r
+/* #define GetBe16(p) __builtin_bswap16(*(const UInt16 *)(const void *)(p)) */\r
+#define GetBe32(p) __builtin_bswap32(*(const UInt32 *)(const void *)(p))\r
+#define GetBe64(p) __builtin_bswap64(*(const UInt64 *)(const void *)(p))\r
+\r
+#define SetBe32(p, v) (*(UInt32 *)(void *)(p)) = __builtin_bswap32(v)\r
+\r
+#else\r
+\r
+#define GetBe32(p) ( \\r
+    ((UInt32)((const Byte *)(p))[0] << 24) | \\r
+    ((UInt32)((const Byte *)(p))[1] << 16) | \\r
+    ((UInt32)((const Byte *)(p))[2] <<  8) | \\r
+             ((const Byte *)(p))[3] )\r
+\r
+#define GetBe64(p) (((UInt64)GetBe32(p) << 32) | GetBe32(((const Byte *)(p)) + 4))\r
+\r
+#define SetBe32(p, v) { Byte *_ppp_ = (Byte *)(p); UInt32 _vvv_ = (v); \\r
+    _ppp_[0] = (Byte)(_vvv_ >> 24); \\r
+    _ppp_[1] = (Byte)(_vvv_ >> 16); \\r
+    _ppp_[2] = (Byte)(_vvv_ >> 8); \\r
+    _ppp_[3] = (Byte)_vvv_; }\r
+\r
+#endif\r
+\r
+\r
+#ifndef GetBe16\r
+\r
+#define GetBe16(p) ( (UInt16) ( \\r
+    ((UInt16)((const Byte *)(p))[0] << 8) | \\r
+             ((const Byte *)(p))[1] ))\r
+\r
+#endif\r
+\r
+\r
+\r
+#ifdef MY_CPU_X86_OR_AMD64\r
+\r
+typedef struct\r
+{\r
+  UInt32 maxFunc;\r
+  UInt32 vendor[3];\r
+  UInt32 ver;\r
+  UInt32 b;\r
+  UInt32 c;\r
+  UInt32 d;\r
+} Cx86cpuid;\r
+\r
+enum\r
+{\r
+  CPU_FIRM_INTEL,\r
+  CPU_FIRM_AMD,\r
+  CPU_FIRM_VIA\r
+};\r
+\r
+void MyCPUID(UInt32 function, UInt32 *a, UInt32 *b, UInt32 *c, UInt32 *d);\r
+\r
+BoolInt x86cpuid_CheckAndRead(Cx86cpuid *p);\r
+int x86cpuid_GetFirm(const Cx86cpuid *p);\r
+\r
+#define x86cpuid_GetFamily(ver) (((ver >> 16) & 0xFF0) | ((ver >> 8) & 0xF))\r
+#define x86cpuid_GetModel(ver)  (((ver >> 12) &  0xF0) | ((ver >> 4) & 0xF))\r
+#define x86cpuid_GetStepping(ver) (ver & 0xF)\r
+\r
+BoolInt CPU_Is_InOrder(void);\r
+\r
+BoolInt CPU_IsSupported_AES(void);\r
+BoolInt CPU_IsSupported_AVX2(void);\r
+BoolInt CPU_IsSupported_VAES_AVX2(void);\r
+BoolInt CPU_IsSupported_SSSE3(void);\r
+BoolInt CPU_IsSupported_SSE41(void);\r
+BoolInt CPU_IsSupported_SHA(void);\r
+BoolInt CPU_IsSupported_PageGB(void);\r
+\r
+#elif defined(MY_CPU_ARM_OR_ARM64)\r
+\r
+BoolInt CPU_IsSupported_CRC32(void);\r
+BoolInt CPU_IsSupported_NEON(void);\r
+\r
+#if defined(_WIN32)\r
+BoolInt CPU_IsSupported_CRYPTO(void);\r
+#define CPU_IsSupported_SHA1  CPU_IsSupported_CRYPTO\r
+#define CPU_IsSupported_SHA2  CPU_IsSupported_CRYPTO\r
+#define CPU_IsSupported_AES   CPU_IsSupported_CRYPTO\r
+#else\r
+BoolInt CPU_IsSupported_SHA1(void);\r
+BoolInt CPU_IsSupported_SHA2(void);\r
+BoolInt CPU_IsSupported_AES(void);\r
+#endif\r
+\r
+#endif\r
+\r
+#if defined(__APPLE__)\r
+int My_sysctlbyname_Get(const char *name, void *buf, size_t *bufSize);\r
+int My_sysctlbyname_Get_UInt32(const char *name, UInt32 *val);\r
+#endif\r
+\r
+EXTERN_C_END\r
+\r
+#endif\r