reference, declaration → definition definition → references, declarations, derived classes, virtual overrides reference to multiple definitions → definitions unreferenced |
4270 unsigned OriginalSize = OVT.getScalarSizeInBits();
lib/CodeGen/SelectionDAG/SelectionDAGBuilder.cpp845 unsigned RegSize = RegisterVT.getScalarSizeInBits(); 7205 Type::getIntNTy(PtrVal->getContext(), LoadVT.getScalarSizeInBits());lib/CodeGen/TargetLoweringBase.cpp
1283 if (SVT.getScalarSizeInBits() > EltVT.getSizeInBits() &&
lib/Target/AArch64/AArch64TargetTransformInfo.cpp241 unsigned DstElTySize = DstTyL.second.getScalarSizeInBits(); 249 unsigned SrcElTySize = SrcTyL.second.getScalarSizeInBits();lib/Target/AMDGPU/AsmParser/AMDGPUAsmParser.cpp
1556 if (type.getScalarSizeInBits() == 16) { 1574 if (!isSafeTruncation(Imm.Val, type.getScalarSizeInBits())) { 1578 if (type.getScalarSizeInBits() == 16) {lib/Target/AMDGPU/SIISelLowering.cpp
1572 assert((!Arg->VT.isVector() || Arg->VT.getScalarSizeInBits() == 16) && 1586 Arg->VT.getScalarSizeInBits() == 16) &&lib/Target/ARM/ARMISelLowering.cpp
16185 unsigned OpTypeBits = HalfT.getScalarSizeInBits();
lib/Target/PowerPC/PPCISelLowering.cpp568 if (VT.getSizeInBits() <= 128 && VT.getScalarSizeInBits() <= 64) { 13158 && VecTy.getScalarSizeInBits() <= 32 ) { 13229 && VecTy.getScalarSizeInBits() <= 32 ) {lib/Target/PowerPC/PPCISelLowering.h
628 if (VT.getScalarSizeInBits() % 8 == 0)
lib/Target/SystemZ/SystemZISelLowering.h 400 if (VT.getScalarSizeInBits() % 8 == 0)
lib/Target/X86/X86ISelDAGToDAG.cpp427 return getI8Imm((Index * VecVT.getScalarSizeInBits()) / VecWidth, DL); 435 return getI8Imm((Index * VecVT.getScalarSizeInBits()) / VecWidth, DL);lib/Target/X86/X86ISelLowering.cpp
5413 assert(V.getBitWidth() == VT.getScalarSizeInBits() && "Unexpected sizes"); 6343 unsigned NumEltsPerLane = 128 / VT.getScalarSizeInBits(); 6418 unsigned MaskEltSize = VT.getScalarSizeInBits(); 6863 unsigned NumBitsPerElt = VT.getScalarSizeInBits(); 7189 NumSizeInBits / SrcVT.getScalarSizeInBits()); 8072 unsigned ScalarSize = VT.getScalarSizeInBits(); 8141 unsigned EltSize = Op->getSimpleValueType(0).getScalarSizeInBits(); 8210 SplatBitSize > VT.getScalarSizeInBits() && 8269 unsigned NumElm = SplatBitSize / VT.getScalarSizeInBits(); 9232 if (RHS.getValueSizeInBits() != VT.getScalarSizeInBits()) { 9294 NumElts * VT.getScalarSizeInBits()); 9509 (VT.getScalarSizeInBits() % ShuffleVT.getScalarSizeInBits()) == 0 && 9509 (VT.getScalarSizeInBits() % ShuffleVT.getScalarSizeInBits()) == 0 && 9512 uint64_t Scale = VT.getScalarSizeInBits() / ShuffleVT.getScalarSizeInBits(); 9512 uint64_t Scale = VT.getScalarSizeInBits() / ShuffleVT.getScalarSizeInBits(); 9681 unsigned NumEltsInLow128Bits = 128 / VT.getScalarSizeInBits(); 10139 int LaneSize = 128 / VT.getScalarSizeInBits(); 10161 auto LaneSize = LaneSizeInBits / VT.getScalarSizeInBits(); 10211 int LaneSize = LaneSizeInBits / VT.getScalarSizeInBits(); 10544 int LaneSize = 128 / VT.getScalarSizeInBits(); 10546 const int NumEltBytes = VT.getScalarSizeInBits() / 8; 10832 unsigned BitSize = VT.getScalarSizeInBits(); 11116 int Scale = VT.getScalarSizeInBits() / 8; 11214 unsigned EltSize = VT.getScalarSizeInBits(); 11302 int Scale = VT.getScalarSizeInBits() / 8; 11630 unsigned Scale = VT.getScalarSizeInBits() / 8; 11772 int ShiftAmt = matchShuffleAsShift(ShiftVT, Opcode, VT.getScalarSizeInBits(), 11777 ShiftAmt = matchShuffleAsShift(ShiftVT, Opcode, VT.getScalarSizeInBits(), 11842 BitLen = (Len * VT.getScalarSizeInBits()) & 0x3f; 11843 BitIdx = (Idx * VT.getScalarSizeInBits()) & 0x3f; 11905 BitLen = (Len * VT.getScalarSizeInBits()) & 0x3f; 11906 BitIdx = (Idx * VT.getScalarSizeInBits()) & 0x3f; 11948 int EltBits = VT.getScalarSizeInBits(); 12114 assert(VT.getScalarSizeInBits() <= 32 && 12234 if (!NewVT.isVector() || NewVT.getScalarSizeInBits() != VT.getScalarSizeInBits()) 12234 if (!NewVT.isVector() || NewVT.getScalarSizeInBits() != VT.getScalarSizeInBits()) 12501 unsigned NumEltBits = VT.getScalarSizeInBits(); 12642 assert(NumEltBits == BroadcastVT.getScalarSizeInBits() && 12666 ExtVT = MVT::getVectorVT(ExtVT, 128 / ExtVT.getScalarSizeInBits()); 12859 int OrigScalarSize = VT.getScalarSizeInBits(); 14151 MVT MaskEltVT = MVT::getIntegerVT(VT.getScalarSizeInBits()); 14924 int NumLaneElts = 128 / VT.getScalarSizeInBits(); 15311 if (BroadcastSize <= VT.getScalarSizeInBits()) 15313 int NumBroadcastElts = BroadcastSize / VT.getScalarSizeInBits(); 15471 assert(VT.getScalarSizeInBits() == 64 && 16215 int ElementBits = VT.getScalarSizeInBits(); 16258 assert(VT.getScalarSizeInBits() == 64 && 17110 if (VT.getScalarSizeInBits() < 64 && !Is1BitVector && 17121 ? MVT::getFloatingPointVT(VT.getScalarSizeInBits() * 2) 17122 : MVT::getIntegerVT(VT.getScalarSizeInBits() * 2); 17225 unsigned EltSize = VT.getScalarSizeInBits(); 18297 uint64_t ShiftAmt = APIntShiftAmt.urem(VT.getScalarSizeInBits()); 18392 unsigned NumEltsInXMM = 128 / FromVT.getScalarSizeInBits(); 19124 DAG.getConstant(VT.getScalarSizeInBits() - 1, DL, VT)); 19300 unsigned ShiftInx = InVT.getScalarSizeInBits() - 1; 19301 if (InVT.getScalarSizeInBits() <= 16) { 19304 if (DAG.ComputeNumSignBits(In) < InVT.getScalarSizeInBits()) { 19351 ShiftInx = InVT.getScalarSizeInBits() - 1; 19354 if (DAG.ComputeNumSignBits(In) < InVT.getScalarSizeInBits()) { 19370 unsigned InNumEltBits = InVT.getScalarSizeInBits(); 19413 unsigned NumPackedSignBits = std::min<unsigned>(VT.getScalarSizeInBits(), 16); 19775 unsigned EltBits = VT.getScalarSizeInBits(); 19835 unsigned EltSizeInBits = VT.getScalarSizeInBits(); 20709 assert((VTOp0.getScalarSizeInBits() >= 32 || Subtarget.hasBWI()) && 20748 VT.getScalarSizeInBits(), UndefElts, 20763 unsigned BitWidth = VT.getScalarSizeInBits(); 21672 unsigned DestWidth = DestVT.getScalarSizeInBits(); 22556 (128 - AmtTy.getScalarSizeInBits()) / 8, SDLoc(ShAmt), MVT::i8); 24664 int NumBytes = NumElts * (VT.getScalarSizeInBits() / 8); 24709 int CurrScalarSizeInBits = CurrVT.getScalarSizeInBits(); 24805 unsigned NumBits = VT.getScalarSizeInBits(); 25443 if (VT.getScalarSizeInBits() < 16) 25447 (VT.getScalarSizeInBits() > 16 || Subtarget.hasBWI())) 25471 if (!Subtarget.hasInt256() || VT.getScalarSizeInBits() < 16) 25475 if (VT.getScalarSizeInBits() == 16 && !Subtarget.hasBWI()) 25539 if (APIntShiftAmt.uge(VT.getScalarSizeInBits())) 25767 unsigned EltSizeInBits = VT.getScalarSizeInBits(); 26251 unsigned EltSizeInBits = VT.getScalarSizeInBits(); 27016 int ScalarSizeInBytes = VT.getScalarSizeInBits() / 8; 27392 assert(VT.getScalarSizeInBits() >= 32 && "Unsupported scatter op"); 27495 unsigned NumEltsInWideVec = 512 / VT.getScalarSizeInBits(); 27544 unsigned NumEltsInWideVec = 512/VT.getScalarSizeInBits(); 27574 assert(VT.getScalarSizeInBits() >= 32 && "Unsupported gather op"); 31820 unsigned MaskEltSize = MaskVT.getScalarSizeInBits(); 32071 unsigned EltSizeInBits = MaskVT.getScalarSizeInBits(); 32137 unsigned EltSizeInBits = MaskVT.getScalarSizeInBits(); 32696 Index = (MaskVT.getScalarSizeInBits() == 64 ? Index << 1 : Index); 33267 int LaneElts = 128 / VT.getScalarSizeInBits(); 33437 if (VT.getScalarSizeInBits() == 64 && 33473 VT.getScalarSizeInBits() % BCVT.getScalarSizeInBits() == 0) { 33474 unsigned Scale = VT.getScalarSizeInBits() / BCVT.getScalarSizeInBits(); 33547 if ((VT.getScalarSizeInBits() % SrcVT.getScalarSizeInBits()) == 0 && 33547 if ((VT.getScalarSizeInBits() % SrcVT.getScalarSizeInBits()) == 0 && 33548 SrcVT.getScalarSizeInBits() >= 32) { 33551 unsigned Scale = VT.getScalarSizeInBits() / SrcVT.getScalarSizeInBits(); 33551 unsigned Scale = VT.getScalarSizeInBits() / SrcVT.getScalarSizeInBits(); 33566 unsigned EltSizeInBits = VT.getScalarSizeInBits(); 34630 ExtSizeInBits / ExtVT.getScalarSizeInBits()); 34867 unsigned VecBitWidth = VecVT.getScalarSizeInBits(); 34921 KnownScl = KnownScl.trunc(VecVT.getScalarSizeInBits()); 34957 unsigned SrcBits = SrcVT.getScalarSizeInBits(); 39294 if (!VT.isVector() || (VT.getScalarSizeInBits() % 8) != 0) 41695 unsigned IntBits = VT.getScalarSizeInBits(); 41998 unsigned NumBits = InVT.getScalarSizeInBits() * VT.getVectorNumElements(); 42033 unsigned NumBits = InVT.getScalarSizeInBits() * VT.getVectorNumElements(); 42074 if (VT.isVector() && (VT.getScalarSizeInBits() % 8) == 0) { 42902 unsigned NumBits = VT.getScalarSizeInBits(); 42918 unsigned EltWidth = SrcVT.getScalarSizeInBits(); 44317 (VT.getScalarSizeInBits() >= 32 && MayFoldLoad(Op0.getOperand(0)))) &&lib/Target/X86/X86ISelLowering.h
1660 int NumEltsInLane = 128 / VT.getScalarSizeInBits();
lib/Target/X86/X86InterleavedAccess.cpp227 unsigned ScalarSize = VT.getVectorElementType().getScalarSizeInBits() * 2; 480 unsigned Offset = Imm * (VT.getScalarSizeInBits() / 8);lib/Target/X86/X86TargetTransformInfo.cpp
1709 (ST->hasAVX512() && 32 <= MTy.getScalarSizeInBits()) || 1729 if ((ST->hasSSE41() && MTy.getScalarSizeInBits() == 32) || 1730 (ST->hasSSE2() && MTy.getScalarSizeInBits() < 32)) {utils/TableGen/CodeGenDAGPatterns.cpp
506 return A.getScalarSizeInBits() < B.getScalarSizeInBits() || 506 return A.getScalarSizeInBits() < B.getScalarSizeInBits() || 507 (A.getScalarSizeInBits() == B.getScalarSizeInBits() && 507 (A.getScalarSizeInBits() == B.getScalarSizeInBits() && 516 return LT(A, B) || (A.getScalarSizeInBits() == B.getScalarSizeInBits() && 516 return LT(A, B) || (A.getScalarSizeInBits() == B.getScalarSizeInBits() &&utils/TableGen/GlobalISelEmitter.cpp
192 LLT::vector(VT.getVectorNumElements(), VT.getScalarSizeInBits()));