This is an automated email from the ASF dual-hosted git repository.
mshr pushed a commit to branch main
in repository https://gitbox.apache.org/repos/asf/tvm.git
The following commit(s) were added to refs/heads/main by this push:
new c6b3feac48 [CI] Update images to `20260214-152058-2a448ce4` (#18775)
c6b3feac48 is described below
commit c6b3feac48a3d66b22e15e70106e8b6a600b00a0
Author: Masahiro Hiramori <[email protected]>
AuthorDate: Tue Feb 17 13:59:13 2026 +0900
[CI] Update images to `20260214-152058-2a448ce4` (#18775)
Update the CI docker images to include Python 3.10, PyTorch 2.10, ONNX
1.20.1 and so on.
Part of #18682
---
ci/jenkins/docker-images.ini | 11 +-
tests/python/relax/test_frontend_dynamo.py | 6 +-
.../relax/test_frontend_from_exported_program.py | 839 ++++++++++-----------
tests/python/relax/test_frontend_onnx.py | 4 +
tests/scripts/task_python_unittest_gpuonly.sh | 5 +-
5 files changed, 403 insertions(+), 462 deletions(-)
diff --git a/ci/jenkins/docker-images.ini b/ci/jenkins/docker-images.ini
index 44f58d3573..a5a8d4ad51 100644
--- a/ci/jenkins/docker-images.ini
+++ b/ci/jenkins/docker-images.ini
@@ -17,8 +17,9 @@
# This data file is read during when Jenkins runs job to determine docker
images.
[jenkins]
-ci_arm: tlcpack/ci-arm:20250513-063354-70aa3797
-ci_cpu: tlcpack/ci_cpu:20250513-063354-70aa3797
-ci_gpu: tlcpack/ci-gpu:20250513-063354-70aa3797
-ci_lint: tlcpack/ci-lint:20250513-063354-70aa3797
-ci_wasm: tlcpack/ci-wasm:20250513-063354-70aa3797
+ci_tag: 20260215-190124-d5371954
+ci_arm: tlcpack/ci-arm:%(ci_tag)s
+ci_cpu: tlcpack/ci_cpu:%(ci_tag)s
+ci_gpu: tlcpack/ci-gpu:%(ci_tag)s
+ci_lint: tlcpack/ci-lint:%(ci_tag)s
+ci_wasm: tlcpack/ci-wasm:%(ci_tag)s
diff --git a/tests/python/relax/test_frontend_dynamo.py
b/tests/python/relax/test_frontend_dynamo.py
index 8b10596ce6..1376232d99 100644
--- a/tests/python/relax/test_frontend_dynamo.py
+++ b/tests/python/relax/test_frontend_dynamo.py
@@ -222,7 +222,7 @@ def test_subgraph_capture():
@R.function
def subgraph_0(
inp_0: R.Tensor((10,), dtype="float32"), inp_1: R.Tensor((10,),
dtype="float32")
- ) -> R.Tuple(R.Tensor((10,), dtype="float32"), R.Tensor((),
dtype="bool")):
+ ) -> R.Tuple(R.Tensor((), dtype="bool"), R.Tensor((10,),
dtype="float32")):
# block 0
with R.dataflow():
lv: R.Tensor((10,), dtype="float32") = R.sin(inp_0)
@@ -230,9 +230,9 @@ def test_subgraph_capture():
lv2: R.Tensor((10,), dtype="float32") = R.divide(inp_0, lv1)
lv3: R.Tensor((), dtype="float32") = R.sum(inp_1, axis=None,
keepdims=False)
lv4: R.Tensor((), dtype="bool") = R.less(lv3, R.const(1.0,
"float32"))
- gv: R.Tuple(R.Tensor((10,), dtype="float32"), R.Tensor((),
dtype="bool")) = (
- lv2,
+ gv: R.Tuple(R.Tensor((), dtype="bool"), R.Tensor((10,),
dtype="float32")) = (
lv4,
+ lv2,
)
R.output(gv)
return gv
diff --git a/tests/python/relax/test_frontend_from_exported_program.py
b/tests/python/relax/test_frontend_from_exported_program.py
index 374c21d560..1335c46ac1 100644
--- a/tests/python/relax/test_frontend_from_exported_program.py
+++ b/tests/python/relax/test_frontend_from_exported_program.py
@@ -236,17 +236,17 @@ def test_extended_unary_ops():
class expected_celu:
@R.function
def main(
- input_1: R.Tensor((1, 3, 10, 10), dtype="float32")
+ input: R.Tensor((1, 3, 10, 10), dtype="float32")
) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input_1)
+ lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
lv, R.const(1.0, "float32")
)
lv2: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
- input_1, R.const(0.0, "float32")
+ input, R.const(0.0, "float32")
)
- lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv2,
input_1, lv1)
+ lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv2,
input, lv1)
gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv3,)
R.output(gv)
return gv
@@ -403,24 +403,17 @@ def test_extended_unary_ops():
input: R.Tensor((1, 3, 10, 10), dtype="float32")
) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
- input, R.const(0.0, "float32")
- )
- lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- input, R.const(1.0, "float32")
- )
- lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- input, R.const(1.0, "float32")
- )
- lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(lv2)
- lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
- lv3, R.const(1.0, "float32")
+ lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
+ lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
+ R.const(1.0, "float32"), lv
)
- lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- lv4, R.const(1.0, "float32")
+ lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.nn.relu(lv1)
+ lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
+ R.const(-1.0, "float32"), lv2
)
- lv6: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv,
lv1, lv5)
- gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv6,)
+ lv4: R.Tensor((1, 3, 10, 10), dtype="float32") =
R.nn.relu(input)
+ lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.add(lv3,
lv4)
+ gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv5,)
R.output(gv)
return gv
@@ -766,24 +759,17 @@ def test_extended_unary_ops():
input: R.Tensor((1, 3, 10, 10), dtype="float32")
) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
- input, R.const(0.0, "float32")
- )
- lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- input, R.const(1.0507010221481323, "float32")
- )
- lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- input, R.const(1.0, "float32")
- )
- lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(lv2)
- lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
- lv3, R.const(1.0, "float32")
+ lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
+ lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
+ R.const(1.0, "float32"), lv
)
- lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
- lv4, R.const(1.7580993175506592, "float32")
+ lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.nn.relu(lv1)
+ lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
+ R.const(-1.6732631921768188, "float32"), lv2
)
- lv6: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv,
lv1, lv5)
- gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv6,)
+ lv4: R.Tensor((1, 3, 10, 10), dtype="float32") =
R.nn.relu(input)
+ lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.add(lv3,
lv4)
+ gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv5,)
R.output(gv)
return gv
@@ -4432,430 +4418,422 @@ def test_interpolate():
def forward(self, input):
return torch.nn.functional.interpolate(input, (224, 224),
mode="bicubic")
- @tvm.script.ir_module
+ @I.ir_module
class expected_bicubic:
@R.function
def main(
input: R.Tensor((1, 3, 112, 112), dtype="float32")
) -> R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((1, 3, 112, 112), dtype="float32") =
R.astype(input, dtype="float32")
- lv1: R.Tensor((1, 3, 112, 112), dtype="float32") =
R.astype(lv, dtype="float32")
- lv2: R.Tensor((224,), dtype="int64") = R.arange(
+ lv: R.Tensor((224,), dtype="int64") = R.arange(
R.prim_value(0), R.prim_value(224), R.prim_value(1),
dtype="int64"
)
- lv3: R.Tensor((224,), dtype="float32") = R.astype(lv2,
dtype="float32")
- lv4: R.Tensor((224,), dtype="int64") = R.arange(
+ lv1: R.Tensor((224,), dtype="float32") = R.astype(lv,
dtype="float32")
+ lv2: R.Tensor((224,), dtype="int64") = R.arange(
R.prim_value(0), R.prim_value(224), R.prim_value(1),
dtype="int64"
)
- lv5: R.Tensor((224,), dtype="float32") = R.astype(lv4,
dtype="float32")
- lv6: R.Tensor((224,), dtype="float32") = R.add(lv5,
R.const(0.5, "float32"))
- lv7: R.Tensor((224,), dtype="float32") = R.multiply(lv6,
R.const(0.5, "float32"))
- lv8: R.Tensor((224,), dtype="float32") = R.subtract(lv7,
R.const(0.5, "float32"))
- lv9: R.Tensor((224,), dtype="float32") = R.add(lv3,
R.const(0.5, "float32"))
- lv10: R.Tensor((224,), dtype="float32") = R.multiply(lv9,
R.const(0.5, "float32"))
- lv11: R.Tensor((224,), dtype="float32") = R.subtract(lv10,
R.const(0.5, "float32"))
- lv12: R.Tensor((224, 1), dtype="float32") =
R.expand_dims(lv11, axis=[-1])
- lv13: R.Tensor((224,), dtype="float32") = R.floor(lv8)
- lv14: R.Tensor((224, 1), dtype="float32") = R.floor(lv12)
- lv15: R.Tensor((224, 1), dtype="float32") = R.subtract(lv12,
lv14)
- lv16: R.Tensor((224, 1), dtype="float32") = R.clip(
+ lv3: R.Tensor((224,), dtype="float32") = R.astype(lv2,
dtype="float32")
+ lv4: R.Tensor((224,), dtype="float32") = R.add(lv3,
R.const(0.5, "float32"))
+ lv5: R.Tensor((224,), dtype="float32") = R.multiply(lv4,
R.const(0.5, "float32"))
+ lv6: R.Tensor((224,), dtype="float32") = R.subtract(lv5,
R.const(0.5, "float32"))
+ lv7: R.Tensor((224,), dtype="float32") = R.add(lv1,
R.const(0.5, "float32"))
+ lv8: R.Tensor((224,), dtype="float32") = R.multiply(lv7,
R.const(0.5, "float32"))
+ lv9: R.Tensor((224,), dtype="float32") = R.subtract(lv8,
R.const(0.5, "float32"))
+ lv10: R.Tensor((224, 1), dtype="float32") = R.expand_dims(lv9,
axis=[-1])
+ lv11: R.Tensor((224,), dtype="float32") = R.floor(lv6)
+ lv12: R.Tensor((224, 1), dtype="float32") = R.floor(lv10)
+ lv13: R.Tensor((224, 1), dtype="float32") = R.subtract(lv10,
lv12)
+ lv14: R.Tensor((224, 1), dtype="float32") = R.clip(
+ lv13, R.prim_value(T.float64(0.0)),
R.prim_value(T.float64(1.0))
+ )
+ lv15: R.Tensor((224,), dtype="float32") = R.subtract(lv6, lv11)
+ lv16: R.Tensor((224,), dtype="float32") = R.clip(
lv15, R.prim_value(T.float64(0.0)),
R.prim_value(T.float64(1.0))
)
- lv17: R.Tensor((224,), dtype="float32") = R.subtract(lv8, lv13)
- lv18: R.Tensor((224,), dtype="float32") = R.clip(
- lv17, R.prim_value(T.float64(0.0)),
R.prim_value(T.float64(1.0))
- )
- lv19: R.Tensor((224,), dtype="int64") = R.astype(lv13,
dtype="int64")
- lv20: R.Tensor((224, 1), dtype="int64") = R.astype(lv14,
dtype="int64")
- lv21: R.Tensor((224, 1), dtype="int64") = R.subtract(lv20,
R.const(1, "int64"))
- lv22: R.Tensor((224, 1), dtype="int64") = R.add(lv20,
R.const(1, "int64"))
- lv23: R.Tensor((224, 1), dtype="int64") = R.add(lv20,
R.const(2, "int64"))
- lv24: R.Tensor((224,), dtype="int64") = R.subtract(lv19,
R.const(1, "int64"))
- lv25: R.Tensor((224,), dtype="int64") = R.add(lv19, R.const(1,
"int64"))
- lv26: R.Tensor((224,), dtype="int64") = R.add(lv19, R.const(2,
"int64"))
- lv27: R.Tensor((224,), dtype="float32") =
R.subtract(R.const(1.0, "float32"), lv18)
- lv28: R.Tensor((448,), dtype="float32") = R.concat((lv18,
lv27), axis=0)
- lv29: R.Tensor((2, 224), dtype="float32") = R.reshape(lv28,
R.shape([2, 224]))
- lv30: R.Tensor((224,), dtype="float32") = R.add(lv18,
R.const(1.0, "float32"))
- lv31: R.Tensor((224,), dtype="float32") =
R.subtract(R.const(2.0, "float32"), lv18)
- lv32: R.Tensor((448,), dtype="float32") = R.concat((lv30,
lv31), axis=0)
- lv33: R.Tensor((2, 224), dtype="float32") = R.reshape(lv32,
R.shape([2, 224]))
- lv34: R.Tensor((2, 224), dtype="float32") = R.multiply(
- lv33, R.const(-0.75, "float32")
- )
- lv35: R.Tensor((2, 224), dtype="float32") = R.subtract(
- lv34, R.const(-3.75, "float32")
- )
- lv36: R.Tensor((2, 224), dtype="float32") = R.multiply(lv35,
lv33)
- lv37: R.Tensor((2, 224), dtype="float32") = R.add(lv36,
R.const(-6.0, "float32"))
- lv38: R.Tensor((2, 224), dtype="float32") = R.multiply(lv37,
lv33)
- lv39: R.Tensor((2, 224), dtype="float32") = R.subtract(
- lv38, R.const(-3.0, "float32")
- )
- lv40: R.Tensor((2, 224), dtype="float32") = R.multiply(
- lv29, R.const(1.25, "float32")
+ lv17: R.Tensor((224,), dtype="int64") = R.astype(lv11,
dtype="int64")
+ lv18: R.Tensor((224, 1), dtype="int64") = R.astype(lv12,
dtype="int64")
+ lv19: R.Tensor((224, 1), dtype="int64") = R.subtract(lv18,
R.const(1, "int64"))
+ lv20: R.Tensor((224, 1), dtype="int64") = R.add(lv18,
R.const(1, "int64"))
+ lv21: R.Tensor((224, 1), dtype="int64") = R.add(lv18,
R.const(2, "int64"))
+ lv22: R.Tensor((224,), dtype="int64") = R.subtract(lv17,
R.const(1, "int64"))
+ lv23: R.Tensor((224,), dtype="int64") = R.add(lv17, R.const(1,
"int64"))
+ lv24: R.Tensor((224,), dtype="int64") = R.add(lv17, R.const(2,
"int64"))
+ lv25: R.Tensor((224,), dtype="float32") =
R.subtract(R.const(1.0, "float32"), lv16)
+ lv26: R.Tensor((448,), dtype="float32") = R.concat((lv16,
lv25), axis=0)
+ lv27: R.Tensor((2, 224), dtype="float32") = R.reshape(lv26,
R.shape([2, 224]))
+ lv28: R.Tensor((224,), dtype="float32") = R.add(lv16,
R.const(1.0, "float32"))
+ lv29: R.Tensor((224,), dtype="float32") =
R.subtract(R.const(2.0, "float32"), lv16)
+ lv30: R.Tensor((448,), dtype="float32") = R.concat((lv28,
lv29), axis=0)
+ lv31: R.Tensor((2, 224), dtype="float32") = R.reshape(lv30,
R.shape([2, 224]))
+ lv32: R.Tensor((2, 224), dtype="float32") = R.multiply(
+ lv31, R.const(-0.75, "float32")
+ )
+ lv33: R.Tensor((2, 224), dtype="float32") = R.subtract(
+ lv32, R.const(-3.75, "float32")
+ )
+ lv34: R.Tensor((2, 224), dtype="float32") = R.multiply(lv33,
lv31)
+ lv35: R.Tensor((2, 224), dtype="float32") = R.add(lv34,
R.const(-6.0, "float32"))
+ lv36: R.Tensor((2, 224), dtype="float32") = R.multiply(lv35,
lv31)
+ lv37: R.Tensor((2, 224), dtype="float32") = R.subtract(
+ lv36, R.const(-3.0, "float32")
+ )
+ lv38: R.Tensor((2, 224), dtype="float32") = R.multiply(
+ lv27, R.const(1.25, "float32")
)
- lv41: R.Tensor((2, 224), dtype="float32") = R.subtract(
- lv40, R.const(2.25, "float32")
+ lv39: R.Tensor((2, 224), dtype="float32") = R.subtract(
+ lv38, R.const(2.25, "float32")
)
- lv42: R.Tensor((2, 224), dtype="float32") = R.multiply(lv41,
lv29)
- lv43: R.Tensor((2, 224), dtype="float32") = R.multiply(lv42,
lv29)
- lv44: R.Tensor((2, 224), dtype="float32") = R.add(lv43,
R.const(1.0, "float32"))
- lv45: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
- lv39,
+ lv40: R.Tensor((2, 224), dtype="float32") = R.multiply(lv39,
lv27)
+ lv41: R.Tensor((2, 224), dtype="float32") = R.multiply(lv40,
lv27)
+ lv42: R.Tensor((2, 224), dtype="float32") = R.add(lv41,
R.const(1.0, "float32"))
+ lv43: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+ lv37,
(R.prim_value(0),),
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv46: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
- lv39,
+ lv44: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+ lv37,
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(2),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv47: R.Tensor((224,), dtype="float32") = R.squeeze(lv45,
axis=[0])
- lv48: R.Tensor((224,), dtype="float32") = R.squeeze(lv46,
axis=[0])
- lv49: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
- lv44,
+ lv45: R.Tensor((224,), dtype="float32") = R.squeeze(lv43,
axis=[0])
+ lv46: R.Tensor((224,), dtype="float32") = R.squeeze(lv44,
axis=[0])
+ lv47: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+ lv42,
(R.prim_value(0),),
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv50: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
- lv44,
+ lv48: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+ lv42,
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(2),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv51: R.Tensor((224,), dtype="float32") = R.squeeze(lv49,
axis=[0])
- lv52: R.Tensor((224,), dtype="float32") = R.squeeze(lv50,
axis=[0])
- lv53: R.Tensor((224, 1), dtype="float32") = R.subtract(
- R.const(1.0, "float32"), lv16
+ lv49: R.Tensor((224,), dtype="float32") = R.squeeze(lv47,
axis=[0])
+ lv50: R.Tensor((224,), dtype="float32") = R.squeeze(lv48,
axis=[0])
+ lv51: R.Tensor((224, 1), dtype="float32") = R.subtract(
+ R.const(1.0, "float32"), lv14
)
- lv54: R.Tensor((448, 1), dtype="float32") = R.concat((lv16,
lv53), axis=0)
- lv55: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv54,
R.shape([2, 224, 1]))
- lv56: R.Tensor((224, 1), dtype="float32") = R.add(lv16,
R.const(1.0, "float32"))
- lv57: R.Tensor((224, 1), dtype="float32") = R.subtract(
- R.const(2.0, "float32"), lv16
+ lv52: R.Tensor((448, 1), dtype="float32") = R.concat((lv14,
lv51), axis=0)
+ lv53: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv52,
R.shape([2, 224, 1]))
+ lv54: R.Tensor((224, 1), dtype="float32") = R.add(lv14,
R.const(1.0, "float32"))
+ lv55: R.Tensor((224, 1), dtype="float32") = R.subtract(
+ R.const(2.0, "float32"), lv14
)
- lv58: R.Tensor((448, 1), dtype="float32") = R.concat((lv56,
lv57), axis=0)
- lv59: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv58,
R.shape([2, 224, 1]))
- lv60: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
- lv59, R.const(-0.75, "float32")
+ lv56: R.Tensor((448, 1), dtype="float32") = R.concat((lv54,
lv55), axis=0)
+ lv57: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv56,
R.shape([2, 224, 1]))
+ lv58: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
+ lv57, R.const(-0.75, "float32")
)
- lv61: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
- lv60, R.const(-3.75, "float32")
+ lv59: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+ lv58, R.const(-3.75, "float32")
)
- lv62: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv61, lv59)
- lv63: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv62,
R.const(-6.0, "float32"))
- lv64: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv63, lv59)
- lv65: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
- lv64, R.const(-3.0, "float32")
+ lv60: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv59, lv57)
+ lv61: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv60,
R.const(-6.0, "float32"))
+ lv62: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv61, lv57)
+ lv63: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+ lv62, R.const(-3.0, "float32")
)
- lv66: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
- lv55, R.const(1.25, "float32")
+ lv64: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
+ lv53, R.const(1.25, "float32")
)
- lv67: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
- lv66, R.const(2.25, "float32")
+ lv65: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+ lv64, R.const(2.25, "float32")
)
- lv68: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv67, lv55)
- lv69: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv68, lv55)
- lv70: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv69,
R.const(1.0, "float32"))
- lv71: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
- lv65,
+ lv66: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv65, lv53)
+ lv67: R.Tensor((2, 224, 1), dtype="float32") =
R.multiply(lv66, lv53)
+ lv68: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv67,
R.const(1.0, "float32"))
+ lv69: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+ lv63,
(R.prim_value(0),),
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv72: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
- lv65,
+ lv70: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+ lv63,
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(2),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv73: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv71,
axis=[0])
- lv74: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv72,
axis=[0])
- lv75: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
- lv70,
+ lv71: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv69,
axis=[0])
+ lv72: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv70,
axis=[0])
+ lv73: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+ lv68,
(R.prim_value(0),),
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv76: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
- lv70,
+ lv74: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+ lv68,
(R.prim_value(0),),
(R.prim_value(1),),
(R.prim_value(2),),
(R.prim_value(1),),
assume_inbound=False,
)
- lv77: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv75,
axis=[0])
- lv78: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv76,
axis=[0])
- lv79: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv21, R.prim_value(0), R.prim_value(111)
- )
- lv80: R.Tensor((224,), dtype="int64") = R.clip(
- lv24, R.prim_value(0), R.prim_value(111)
+ lv75: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv73,
axis=[0])
+ lv76: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv74,
axis=[0])
+ lv77: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv19, R.prim_value(0), R.prim_value(111)
)
- lv81: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv80, axis=3, mode="fast"
+ lv78: R.Tensor((224,), dtype="int64") = R.clip(
+ lv22, R.prim_value(0), R.prim_value(111)
)
- lv82: R.Tensor((224,), dtype="int64") = R.squeeze(lv79,
axis=None)
- lv83: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv81, lv82, axis=2, mode="fast"
+ lv79: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv78, axis=3, mode="fast"
)
- lv84: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv21, R.prim_value(0), R.prim_value(111)
+ lv80: R.Tensor((224,), dtype="int64") = R.squeeze(lv77,
axis=None)
+ lv81: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv79, lv80, axis=2, mode="fast"
)
- lv85: R.Tensor((224,), dtype="int64") = R.clip(
+ lv82: R.Tensor((224, 1), dtype="int64") = R.clip(
lv19, R.prim_value(0), R.prim_value(111)
)
- lv86: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv85, axis=3, mode="fast"
+ lv83: R.Tensor((224,), dtype="int64") = R.clip(
+ lv17, R.prim_value(0), R.prim_value(111)
)
- lv87: R.Tensor((224,), dtype="int64") = R.squeeze(lv84,
axis=None)
- lv88: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv86, lv87, axis=2, mode="fast"
+ lv84: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv83, axis=3, mode="fast"
)
- lv89: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv21, R.prim_value(0), R.prim_value(111)
+ lv85: R.Tensor((224,), dtype="int64") = R.squeeze(lv82,
axis=None)
+ lv86: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv84, lv85, axis=2, mode="fast"
)
- lv90: R.Tensor((224,), dtype="int64") = R.clip(
- lv25, R.prim_value(0), R.prim_value(111)
+ lv87: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv19, R.prim_value(0), R.prim_value(111)
)
- lv91: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv90, axis=3, mode="fast"
+ lv88: R.Tensor((224,), dtype="int64") = R.clip(
+ lv23, R.prim_value(0), R.prim_value(111)
)
- lv92: R.Tensor((224,), dtype="int64") = R.squeeze(lv89,
axis=None)
- lv93: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv91, lv92, axis=2, mode="fast"
+ lv89: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv88, axis=3, mode="fast"
)
- lv94: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv21, R.prim_value(0), R.prim_value(111)
+ lv90: R.Tensor((224,), dtype="int64") = R.squeeze(lv87,
axis=None)
+ lv91: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv89, lv90, axis=2, mode="fast"
)
- lv95: R.Tensor((224,), dtype="int64") = R.clip(
- lv26, R.prim_value(0), R.prim_value(111)
+ lv92: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv19, R.prim_value(0), R.prim_value(111)
)
- lv96: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv95, axis=3, mode="fast"
+ lv93: R.Tensor((224,), dtype="int64") = R.clip(
+ lv24, R.prim_value(0), R.prim_value(111)
)
- lv97: R.Tensor((224,), dtype="int64") = R.squeeze(lv94,
axis=None)
- lv98: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv96, lv97, axis=2, mode="fast"
+ lv94: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv93, axis=3, mode="fast"
)
- lv99: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv83, lv47)
- lv100: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv88, lv51)
+ lv95: R.Tensor((224,), dtype="int64") = R.squeeze(lv92,
axis=None)
+ lv96: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv94, lv95, axis=2, mode="fast"
+ )
+ lv97: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv81, lv45)
+ lv98: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv86, lv49)
+ lv99: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv97, lv98)
+ lv100: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv91, lv50)
lv101: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv99, lv100)
- lv102: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv93, lv52)
+ lv102: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv96, lv46)
lv103: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv101, lv102)
- lv104: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv98, lv48)
- lv105: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv103, lv104)
- lv106: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv20, R.prim_value(0), R.prim_value(111)
+ lv104: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv18, R.prim_value(0), R.prim_value(111)
)
- lv107: R.Tensor((224,), dtype="int64") = R.clip(
- lv24, R.prim_value(0), R.prim_value(111)
+ lv105: R.Tensor((224,), dtype="int64") = R.clip(
+ lv22, R.prim_value(0), R.prim_value(111)
)
- lv108: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv107, axis=3, mode="fast"
+ lv106: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv105, axis=3, mode="fast"
)
- lv109: R.Tensor((224,), dtype="int64") = R.squeeze(lv106,
axis=None)
- lv110: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv108, lv109, axis=2, mode="fast"
+ lv107: R.Tensor((224,), dtype="int64") = R.squeeze(lv104,
axis=None)
+ lv108: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv106, lv107, axis=2, mode="fast"
)
- lv111: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv20, R.prim_value(0), R.prim_value(111)
+ lv109: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv18, R.prim_value(0), R.prim_value(111)
)
- lv112: R.Tensor((224,), dtype="int64") = R.clip(
- lv19, R.prim_value(0), R.prim_value(111)
+ lv110: R.Tensor((224,), dtype="int64") = R.clip(
+ lv17, R.prim_value(0), R.prim_value(111)
)
- lv113: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv112, axis=3, mode="fast"
+ lv111: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv110, axis=3, mode="fast"
)
- lv114: R.Tensor((224,), dtype="int64") = R.squeeze(lv111,
axis=None)
- lv115: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv113, lv114, axis=2, mode="fast"
+ lv112: R.Tensor((224,), dtype="int64") = R.squeeze(lv109,
axis=None)
+ lv113: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv111, lv112, axis=2, mode="fast"
)
- lv116: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv20, R.prim_value(0), R.prim_value(111)
+ lv114: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv18, R.prim_value(0), R.prim_value(111)
)
- lv117: R.Tensor((224,), dtype="int64") = R.clip(
- lv25, R.prim_value(0), R.prim_value(111)
+ lv115: R.Tensor((224,), dtype="int64") = R.clip(
+ lv23, R.prim_value(0), R.prim_value(111)
)
- lv118: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv117, axis=3, mode="fast"
+ lv116: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv115, axis=3, mode="fast"
)
- lv119: R.Tensor((224,), dtype="int64") = R.squeeze(lv116,
axis=None)
- lv120: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv118, lv119, axis=2, mode="fast"
+ lv117: R.Tensor((224,), dtype="int64") = R.squeeze(lv114,
axis=None)
+ lv118: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv116, lv117, axis=2, mode="fast"
)
- lv121: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv20, R.prim_value(0), R.prim_value(111)
+ lv119: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv18, R.prim_value(0), R.prim_value(111)
)
- lv122: R.Tensor((224,), dtype="int64") = R.clip(
- lv26, R.prim_value(0), R.prim_value(111)
+ lv120: R.Tensor((224,), dtype="int64") = R.clip(
+ lv24, R.prim_value(0), R.prim_value(111)
)
- lv123: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv122, axis=3, mode="fast"
+ lv121: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv120, axis=3, mode="fast"
)
- lv124: R.Tensor((224,), dtype="int64") = R.squeeze(lv121,
axis=None)
- lv125: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv123, lv124, axis=2, mode="fast"
+ lv122: R.Tensor((224,), dtype="int64") = R.squeeze(lv119,
axis=None)
+ lv123: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv121, lv122, axis=2, mode="fast"
)
- lv126: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv110, lv47)
- lv127: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv115, lv51)
+ lv124: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv108, lv45)
+ lv125: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv113, lv49)
+ lv126: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv124, lv125)
+ lv127: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv118, lv50)
lv128: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv126, lv127)
- lv129: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv120, lv52)
+ lv129: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv123, lv46)
lv130: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv128, lv129)
- lv131: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv125, lv48)
- lv132: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv130, lv131)
- lv133: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv22, R.prim_value(0), R.prim_value(111)
+ lv131: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv20, R.prim_value(0), R.prim_value(111)
)
- lv134: R.Tensor((224,), dtype="int64") = R.clip(
- lv24, R.prim_value(0), R.prim_value(111)
+ lv132: R.Tensor((224,), dtype="int64") = R.clip(
+ lv22, R.prim_value(0), R.prim_value(111)
)
- lv135: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv134, axis=3, mode="fast"
+ lv133: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv132, axis=3, mode="fast"
)
- lv136: R.Tensor((224,), dtype="int64") = R.squeeze(lv133,
axis=None)
- lv137: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv135, lv136, axis=2, mode="fast"
+ lv134: R.Tensor((224,), dtype="int64") = R.squeeze(lv131,
axis=None)
+ lv135: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv133, lv134, axis=2, mode="fast"
)
- lv138: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv22, R.prim_value(0), R.prim_value(111)
+ lv136: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv20, R.prim_value(0), R.prim_value(111)
)
- lv139: R.Tensor((224,), dtype="int64") = R.clip(
- lv19, R.prim_value(0), R.prim_value(111)
+ lv137: R.Tensor((224,), dtype="int64") = R.clip(
+ lv17, R.prim_value(0), R.prim_value(111)
)
- lv140: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv139, axis=3, mode="fast"
+ lv138: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv137, axis=3, mode="fast"
)
- lv141: R.Tensor((224,), dtype="int64") = R.squeeze(lv138,
axis=None)
- lv142: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv140, lv141, axis=2, mode="fast"
+ lv139: R.Tensor((224,), dtype="int64") = R.squeeze(lv136,
axis=None)
+ lv140: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv138, lv139, axis=2, mode="fast"
)
- lv143: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv22, R.prim_value(0), R.prim_value(111)
+ lv141: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv20, R.prim_value(0), R.prim_value(111)
)
- lv144: R.Tensor((224,), dtype="int64") = R.clip(
- lv25, R.prim_value(0), R.prim_value(111)
+ lv142: R.Tensor((224,), dtype="int64") = R.clip(
+ lv23, R.prim_value(0), R.prim_value(111)
)
- lv145: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv144, axis=3, mode="fast"
+ lv143: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv142, axis=3, mode="fast"
)
- lv146: R.Tensor((224,), dtype="int64") = R.squeeze(lv143,
axis=None)
- lv147: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv145, lv146, axis=2, mode="fast"
+ lv144: R.Tensor((224,), dtype="int64") = R.squeeze(lv141,
axis=None)
+ lv145: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv143, lv144, axis=2, mode="fast"
)
- lv148: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv22, R.prim_value(0), R.prim_value(111)
+ lv146: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv20, R.prim_value(0), R.prim_value(111)
)
- lv149: R.Tensor((224,), dtype="int64") = R.clip(
- lv26, R.prim_value(0), R.prim_value(111)
+ lv147: R.Tensor((224,), dtype="int64") = R.clip(
+ lv24, R.prim_value(0), R.prim_value(111)
)
- lv150: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv149, axis=3, mode="fast"
+ lv148: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv147, axis=3, mode="fast"
)
- lv151: R.Tensor((224,), dtype="int64") = R.squeeze(lv148,
axis=None)
- lv152: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv150, lv151, axis=2, mode="fast"
+ lv149: R.Tensor((224,), dtype="int64") = R.squeeze(lv146,
axis=None)
+ lv150: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv148, lv149, axis=2, mode="fast"
)
- lv153: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv137, lv47)
- lv154: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv142, lv51)
+ lv151: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv135, lv45)
+ lv152: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv140, lv49)
+ lv153: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv151, lv152)
+ lv154: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv145, lv50)
lv155: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv153, lv154)
- lv156: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv147, lv52)
+ lv156: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv150, lv46)
lv157: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv155, lv156)
- lv158: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv152, lv48)
- lv159: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv157, lv158)
- lv160: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv23, R.prim_value(0), R.prim_value(111)
+ lv158: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv21, R.prim_value(0), R.prim_value(111)
)
- lv161: R.Tensor((224,), dtype="int64") = R.clip(
- lv24, R.prim_value(0), R.prim_value(111)
+ lv159: R.Tensor((224,), dtype="int64") = R.clip(
+ lv22, R.prim_value(0), R.prim_value(111)
)
- lv162: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv161, axis=3, mode="fast"
+ lv160: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv159, axis=3, mode="fast"
)
- lv163: R.Tensor((224,), dtype="int64") = R.squeeze(lv160,
axis=None)
- lv164: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv162, lv163, axis=2, mode="fast"
+ lv161: R.Tensor((224,), dtype="int64") = R.squeeze(lv158,
axis=None)
+ lv162: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv160, lv161, axis=2, mode="fast"
)
- lv165: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv23, R.prim_value(0), R.prim_value(111)
+ lv163: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv21, R.prim_value(0), R.prim_value(111)
)
- lv166: R.Tensor((224,), dtype="int64") = R.clip(
- lv19, R.prim_value(0), R.prim_value(111)
+ lv164: R.Tensor((224,), dtype="int64") = R.clip(
+ lv17, R.prim_value(0), R.prim_value(111)
)
- lv167: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv166, axis=3, mode="fast"
+ lv165: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv164, axis=3, mode="fast"
)
- lv168: R.Tensor((224,), dtype="int64") = R.squeeze(lv165,
axis=None)
- lv169: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv167, lv168, axis=2, mode="fast"
+ lv166: R.Tensor((224,), dtype="int64") = R.squeeze(lv163,
axis=None)
+ lv167: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv165, lv166, axis=2, mode="fast"
)
- lv170: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv23, R.prim_value(0), R.prim_value(111)
+ lv168: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv21, R.prim_value(0), R.prim_value(111)
)
- lv171: R.Tensor((224,), dtype="int64") = R.clip(
- lv25, R.prim_value(0), R.prim_value(111)
+ lv169: R.Tensor((224,), dtype="int64") = R.clip(
+ lv23, R.prim_value(0), R.prim_value(111)
)
- lv172: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv171, axis=3, mode="fast"
+ lv170: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv169, axis=3, mode="fast"
)
- lv173: R.Tensor((224,), dtype="int64") = R.squeeze(lv170,
axis=None)
- lv174: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv172, lv173, axis=2, mode="fast"
+ lv171: R.Tensor((224,), dtype="int64") = R.squeeze(lv168,
axis=None)
+ lv172: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv170, lv171, axis=2, mode="fast"
)
- lv175: R.Tensor((224, 1), dtype="int64") = R.clip(
- lv23, R.prim_value(0), R.prim_value(111)
+ lv173: R.Tensor((224, 1), dtype="int64") = R.clip(
+ lv21, R.prim_value(0), R.prim_value(111)
)
- lv176: R.Tensor((224,), dtype="int64") = R.clip(
- lv26, R.prim_value(0), R.prim_value(111)
+ lv174: R.Tensor((224,), dtype="int64") = R.clip(
+ lv24, R.prim_value(0), R.prim_value(111)
)
- lv177: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
- lv1, lv176, axis=3, mode="fast"
+ lv175: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+ input, lv174, axis=3, mode="fast"
)
- lv178: R.Tensor((224,), dtype="int64") = R.squeeze(lv175,
axis=None)
- lv179: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
- lv177, lv178, axis=2, mode="fast"
+ lv176: R.Tensor((224,), dtype="int64") = R.squeeze(lv173,
axis=None)
+ lv177: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+ lv175, lv176, axis=2, mode="fast"
)
- lv180: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv164, lv47)
- lv181: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv169, lv51)
+ lv178: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv162, lv45)
+ lv179: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv167, lv49)
+ lv180: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv178, lv179)
+ lv181: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv172, lv50)
lv182: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv180, lv181)
- lv183: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv174, lv52)
+ lv183: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv177, lv46)
lv184: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv182, lv183)
- lv185: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv179, lv48)
- lv186: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv184, lv185)
- lv187: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv105, lv73)
- lv188: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv132, lv77)
+ lv185: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv103, lv71)
+ lv186: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv130, lv75)
+ lv187: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv185, lv186)
+ lv188: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv157, lv76)
lv189: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv187, lv188)
- lv190: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv159, lv78)
+ lv190: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv184, lv72)
lv191: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv189, lv190)
- lv192: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.multiply(lv186, lv74)
- lv193: R.Tensor((1, 3, 224, 224), dtype="float32") =
R.add(lv191, lv192)
- lv194: R.Tensor((1, 3, 224, 224), dtype="float32") = R.astype(
- lv193, dtype="float32"
- )
- lv195: R.Tensor((1, 3, 224, 224), dtype="float32") = R.astype(
- lv194, dtype="float32"
- )
- gv: R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")) =
(lv195,)
+ gv: R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")) =
(lv191,)
R.output(gv)
return gv
@@ -5556,7 +5534,9 @@ def test_select_slice():
) -> R.Tuple(R.Tensor((1, 10, 3), dtype="float32")):
# block 0
with R.dataflow():
- lv: R.Tensor((3, 10, 10), dtype="float32") = R.take(x,
R.const(0, "int64"), axis=0)
+ lv: R.Tensor((3, 10, 10), dtype="float32") = R.take(
+ x, R.const(0, "int64"), axis=0, mode="fast"
+ )
lv1: R.Tensor((1, 10, 10), dtype="float32") = R.strided_slice(
lv,
(R.prim_value(0),),
@@ -5565,23 +5545,15 @@ def test_select_slice():
(R.prim_value(2),),
assume_inbound=False,
)
- lv2: R.Tensor((1, 10, 10), dtype="float32") = R.strided_slice(
+ lv2: R.Tensor((1, 10, 3), dtype="float32") = R.strided_slice(
lv1,
- (R.prim_value(1),),
- (R.prim_value(0),),
- (R.prim_value(9223372036854775807),),
- (R.prim_value(1),),
- assume_inbound=False,
- )
- lv3: R.Tensor((1, 10, 3), dtype="float32") = R.strided_slice(
- lv2,
(R.prim_value(2),),
(R.prim_value(0),),
(R.prim_value(3),),
(R.prim_value(1),),
assume_inbound=False,
)
- gv: R.Tuple(R.Tensor((1, 10, 3), dtype="float32")) = (lv3,)
+ gv: R.Tuple(R.Tensor((1, 10, 3), dtype="float32")) = (lv2,)
R.output(gv)
return gv
@@ -5596,26 +5568,10 @@ def test_select_slice():
x: R.Tensor((8, 16), dtype="float32")
) -> R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((8, 16), dtype="float32") = R.strided_slice(
- x,
- (R.prim_value(0),),
- (R.prim_value(0),),
- (R.prim_value(9223372036854775807),),
- (R.prim_value(1),),
- assume_inbound=False,
- )
- lv1: R.Tensor((8, 1, 16), dtype="float32") = R.expand_dims(lv,
axis=[1])
- lv2: R.Tensor((8, 1, 1, 16), dtype="float32") =
R.expand_dims(lv1, axis=[2])
- lv3: R.Tensor((8, 1, 1, 16), dtype="float32") =
R.strided_slice(
- lv2,
- (R.prim_value(3),),
- (R.prim_value(0),),
- (R.prim_value(9223372036854775807),),
- (R.prim_value(1),),
- assume_inbound=False,
- )
- lv4: R.Tensor((8, 1, 1, 16, 1), dtype="float32") =
R.expand_dims(lv3, axis=[4])
- gv: R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")) =
(lv4,)
+ lv: R.Tensor((8, 1, 16), dtype="float32") = R.expand_dims(x,
axis=[1])
+ lv1: R.Tensor((8, 1, 1, 16), dtype="float32") =
R.expand_dims(lv, axis=[2])
+ lv2: R.Tensor((8, 1, 1, 16, 1), dtype="float32") =
R.expand_dims(lv1, axis=[4])
+ gv: R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")) =
(lv2,)
R.output(gv)
return gv
@@ -6365,12 +6321,7 @@ def test_masked_select():
def main(
data: R.Tensor((2, 3), dtype="float32"), mask: R.Tensor((2, 3),
dtype="bool")
) -> R.Tuple(R.Tensor(dtype="float32", ndim=1)):
- R.func_attr(
- {
- "tir_var_lower_bound": {"u0": 0, "u1": 0},
- "tir_var_upper_bound": {"u0": 6, "u1": 6},
- }
- )
+ R.func_attr({"tir_var_lower_bound": {"u0": 0},
"tir_var_upper_bound": {"u0": 6}})
with R.dataflow():
lv: R.Tensor((6,), dtype="float32") = R.reshape(data,
R.shape([6]))
lv1: R.Tensor((6,), dtype="bool") = R.reshape(mask,
R.shape([6]))
@@ -6480,8 +6431,7 @@ def test_to_copy():
) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
# block 0
with R.dataflow():
- lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(x,
dtype="float32")
- gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+ gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (x,)
R.output(gv)
return gv
@@ -6516,8 +6466,7 @@ def test_to_copy():
) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
# block 0
with R.dataflow():
- lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(x,
dtype="float32")
- gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+ gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (x,)
R.output(gv)
return gv
@@ -6529,10 +6478,10 @@ def test_to_copy():
class expected_to1:
@R.function
def main(
- inp_0: R.Tensor((1, 2, 3, 4), dtype="float32")
+ input: R.Tensor((1, 2, 3, 4), dtype="float32")
) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float16")):
with R.dataflow():
- lv: R.Tensor((1, 2, 3, 4), dtype="float16") = R.astype(inp_0,
dtype="float16")
+ lv: R.Tensor((1, 2, 3, 4), dtype="float16") = R.astype(input,
dtype="float16")
gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float16")) = (lv,)
R.output(gv)
return gv
@@ -6545,11 +6494,10 @@ def test_to_copy():
class expected_to2:
@R.function
def main(
- inp_0: R.Tensor((1, 2, 3, 4), dtype="float32")
+ input: R.Tensor((1, 2, 3, 4), dtype="float32")
) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(inp_0,
dtype="float32")
- gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+ gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (input,)
R.output(gv)
return gv
@@ -7046,7 +6994,7 @@ def test_index_put():
) -> R.Tuple(R.Tensor((64,), dtype="float32"), R.Tensor((64,),
dtype="float32")):
with R.dataflow():
lv: R.Tensor((64,), dtype="float32") = R.index_put(
- data, R.tuple(indices_0), values, accumulate=False
+ data, (indices_0,), values, accumulate=False
)
gv: R.Tuple(R.Tensor((64,), dtype="float32"), R.Tensor((64,),
dtype="float32")) = (
lv,
@@ -7079,7 +7027,7 @@ def test_index_put():
) -> R.Tuple(R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64),
dtype="float32")):
with R.dataflow():
lv: R.Tensor((32, 64), dtype="float32") = R.index_put(
- data, R.tuple(indices_0, indices_1), values,
accumulate=False
+ data, (indices_0, indices_1), values, accumulate=False
)
gv: R.Tuple(
R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64),
dtype="float32")
@@ -7115,7 +7063,7 @@ def test_index_put():
):
with R.dataflow():
lv: R.Tensor((16, 32, 64), dtype="float32") = R.index_put(
- data, R.tuple(indices_0, indices_1, indices_2), values,
accumulate=False
+ data, (indices_0, indices_1, indices_2), values,
accumulate=False
)
gv: R.Tuple(
R.Tensor((16, 32, 64), dtype="float32"), R.Tensor((16, 32,
64), dtype="float32")
@@ -7155,7 +7103,7 @@ def test_index_put():
with R.dataflow():
lv: R.Tensor((8, 16, 32, 64), dtype="float32") = R.index_put(
data,
- R.tuple(indices_0, indices_1, indices_2, indices_3),
+ (indices_0, indices_1, indices_2, indices_3),
values,
accumulate=False,
)
@@ -7200,7 +7148,7 @@ def test_index_put():
with R.dataflow():
lv: R.Tensor((4, 8, 16, 32, 64), dtype="float32") =
R.index_put(
data,
- R.tuple(indices_0, indices_1, indices_2, indices_3,
indices_4),
+ (indices_0, indices_1, indices_2, indices_3, indices_4),
values,
accumulate=False,
)
@@ -7240,7 +7188,7 @@ def test_index_put():
R.shape([32, 10]), R.const(1.0, "float32"), dtype="float32"
)
lv3: R.Tensor((32, 64), dtype="float32") = R.index_put(
- data, R.tuple(lv1, indices_1), lv2, accumulate=False
+ data, (lv1, indices_1), lv2, accumulate=False
)
gv: R.Tuple(
R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64),
dtype="float32")
@@ -7276,7 +7224,7 @@ def test_index_put():
R.shape([10, 64]), R.const(1.0, "float32"), dtype="float32"
)
lv3: R.Tensor((32, 64), dtype="float32") = R.index_put(
- data, R.tuple(indices_0, lv1), lv2, accumulate=False
+ data, (indices_0, lv1), lv2, accumulate=False
)
gv: R.Tuple(
R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64),
dtype="float32")
@@ -7319,7 +7267,7 @@ def test_index_put():
R.shape([16, 10, 64]), R.const(1.0, "float32"),
dtype="float32"
)
lv5: R.Tensor((16, 32, 64), dtype="float32") = R.index_put(
- data, R.tuple(lv1, indices_1, lv3), lv4, accumulate=False
+ data, (lv1, indices_1, lv3), lv4, accumulate=False
)
gv: R.Tuple(
R.Tensor((16, 32, 64), dtype="float32"), R.Tensor((16, 32,
64), dtype="float32")
@@ -7353,25 +7301,14 @@ def test_index_put():
R.prim_value(0), R.prim_value(10), R.prim_value(1),
dtype="int64"
)
lv2: R.Tensor((10,), dtype="int64") = R.add(lv1, R.const(1,
"int64"))
- lv3: R.Tensor((2, 11, 11), dtype="float32") = R.strided_slice(
- lv,
- (R.prim_value(0),),
- (R.prim_value(0),),
- (R.prim_value(9223372036854775807),),
- (R.prim_value(1),),
- assume_inbound=False,
- )
- lv4: R.Tensor((2,), dtype="int64") = R.arange(
+ lv3: R.Tensor((2,), dtype="int64") = R.arange(
R.prim_value(0), R.prim_value(2), R.prim_value(1),
dtype="int64"
)
- lv5: R.Tensor((2, 1), dtype="int64") = R.reshape(lv4,
R.shape([2, 1]))
- lv6: R.Tensor((2, 11, 11), dtype="float32") = R.index_put(
- lv3, (lv5, lv1, lv2), x, accumulate=False
- )
- lv7: R.Tensor((2, 11, 11), dtype="float32") = R.slice_scatter(
- lv, lv6, R.prim_value(0), R.prim_value(2),
R.prim_value(1), axis=0
+ lv4: R.Tensor((2, 1), dtype="int64") = R.reshape(lv3,
R.shape([2, 1]))
+ lv5: R.Tensor((2, 11, 11), dtype="float32") = R.index_put(
+ lv, (lv4, lv1, lv2), x, accumulate=False
)
- gv: R.Tuple(R.Tensor((2, 11, 11), dtype="float32")) = (lv7,)
+ gv: R.Tuple(R.Tensor((2, 11, 11), dtype="float32")) = (lv5,)
R.output(gv)
return gv
@@ -7672,19 +7609,18 @@ def test_dynamic_shape():
def forward(self, x1, x2):
return torch.ops.aten.add.Tensor(x1, x2)
- B = tvm.tir.SizeVar("BatchSize", dtype="int64")
-
- @tvm.script.ir_module
+ @I.ir_module
class Expected:
@R.function
def main(
- lhs: R.Tensor((B, 4), dtype="float32"),
- rhs: R.Tensor((B, 4), dtype="float32"),
- ) -> R.Tuple(R.Tensor((B, 4), dtype="float32")):
- R.func_attr({"tir_var_lower_bound": {"s0": 0}})
+ lhs: R.Tensor(("s0", 4), dtype="float32"),
+ rhs: R.Tensor(("s0", 4), dtype="float32"),
+ ) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
+ s0 = T.int64(is_size_var=True)
+ R.func_attr({"tir_var_lower_bound": {"s24": 0}})
with R.dataflow():
- lv: R.Tensor((B, 4), dtype="float32") = R.add(lhs, rhs)
- gv: R.Tuple(R.Tensor((B, 4), dtype="float32")) = (lv,)
+ lv: R.Tensor((s0, 4), dtype="float32") = R.add(lhs, rhs)
+ gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
R.output(gv)
return gv
@@ -7699,6 +7635,7 @@ def test_dynamic_shape():
Expected,
dynamic_shapes=dynamic_shapes,
run_ep_decomposition=True,
+ map_free_vars=True,
)
@@ -7896,20 +7833,16 @@ def test_eye():
input: R.Tensor((3, 5), dtype="float32")
) -> R.Tuple(R.Tensor((3, 5), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((3,), dtype="int64") = R.arange(
- R.prim_value(0), R.prim_value(3), R.prim_value(1),
dtype="int64"
+ lv: R.Tensor((3,), dtype="uint8") = R.arange(
+ R.prim_value(0), R.prim_value(3), R.prim_value(1),
dtype="uint8"
)
- lv1: R.Tensor((5,), dtype="int64") = R.arange(
- R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="int64"
+ lv1: R.Tensor((5,), dtype="uint8") = R.arange(
+ R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="uint8"
)
- lv2: R.Tensor((3, 1), dtype="int64") = R.expand_dims(lv,
axis=[-1])
+ lv2: R.Tensor((3, 1), dtype="uint8") = R.expand_dims(lv,
axis=[-1])
lv3: R.Tensor((3, 5), dtype="bool") = R.equal(lv2, lv1)
- lv4: R.Tensor((1,), dtype="float32") = R.full(
- R.shape([1]), R.const(1.0, "float32"), dtype="float32"
- )
- lv5: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
- lv6: R.Tensor((3, 5), dtype="float32") = R.where(lv3, lv4, lv5)
- gv: R.Tuple(R.Tensor((3, 5), dtype="float32")) = (lv6,)
+ lv4: R.Tensor((3, 5), dtype="float32") = R.astype(lv3,
dtype="float32")
+ gv: R.Tuple(R.Tensor((3, 5), dtype="float32")) = (lv4,)
R.output(gv)
return gv
@@ -7924,20 +7857,16 @@ def test_eye():
input: R.Tensor((5,), dtype="float32")
) -> R.Tuple(R.Tensor((5, 5), dtype="float32")):
with R.dataflow():
- lv: R.Tensor((5,), dtype="int64") = R.arange(
- R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="int64"
+ lv: R.Tensor((5,), dtype="uint8") = R.arange(
+ R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="uint8"
)
- lv1: R.Tensor((5,), dtype="int64") = R.arange(
- R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="int64"
+ lv1: R.Tensor((5,), dtype="uint8") = R.arange(
+ R.prim_value(0), R.prim_value(5), R.prim_value(1),
dtype="uint8"
)
- lv2: R.Tensor((5, 1), dtype="int64") = R.expand_dims(lv,
axis=[-1])
+ lv2: R.Tensor((5, 1), dtype="uint8") = R.expand_dims(lv,
axis=[-1])
lv3: R.Tensor((5, 5), dtype="bool") = R.equal(lv2, lv1)
- lv4: R.Tensor((1,), dtype="float32") = R.full(
- R.shape([1]), R.const(1.0, "float32"), dtype="float32"
- )
- lv5: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
- lv6: R.Tensor((5, 5), dtype="float32") = R.where(lv3, lv4, lv5)
- gv: R.Tuple(R.Tensor((5, 5), dtype="float32")) = (lv6,)
+ lv4: R.Tensor((5, 5), dtype="float32") = R.astype(lv3,
dtype="float32")
+ gv: R.Tuple(R.Tensor((5, 5), dtype="float32")) = (lv4,)
R.output(gv)
return gv
@@ -7963,32 +7892,31 @@ def test_cross_entropy():
@R.function
def main(x: R.Tensor((4, 3), dtype="float32")) -> R.Tuple(R.Tensor((),
dtype="float32")):
with R.dataflow():
- lv: R.Tensor((4, 3), dtype="float32") = R.astype(x,
dtype="float32")
- lv1: R.Tensor((4, 3), dtype="float32") = R.nn.log_softmax(lv,
axis=1)
- lv2: R.Tensor((4,), dtype="bool") = R.not_equal(
+ lv: R.Tensor((4, 3), dtype="float32") = R.nn.log_softmax(x,
axis=1)
+ lv1: R.Tensor((4,), dtype="bool") = R.not_equal(
R.const([0, 1, 2, 1], dtype="int64"), R.const(-100,
"int64")
)
- lv3: R.Tensor((), dtype="int64") = R.const(0, "int64")
- lv4: R.Tensor((4,), dtype="int64") = R.where(
- lv2, R.const([0, 1, 2, 1], dtype="int64"), lv3
+ lv2: R.Tensor((), dtype="int64") = R.const(0, "int64")
+ lv3: R.Tensor((4,), dtype="int64") = R.where(
+ lv1, R.const([0, 1, 2, 1], dtype="int64"), lv2
)
- lv5: R.Tensor((4, 1), dtype="int64") = R.expand_dims(lv4,
axis=[1])
- lv6: R.Tensor((4, 1), dtype="float32") =
R.gather_elements(lv1, lv5, axis=1)
- lv7: R.Tensor((4,), dtype="float32") = R.squeeze(lv6, axis=[1])
- lv8: R.Tensor((4,), dtype="float32") = R.negative(lv7)
- lv9: R.Tensor((4,), dtype="bool") = R.not_equal(
+ lv4: R.Tensor((4, 1), dtype="int64") = R.expand_dims(lv3,
axis=[1])
+ lv5: R.Tensor((4, 1), dtype="float32") = R.gather_elements(lv,
lv4, axis=1)
+ lv6: R.Tensor((4,), dtype="float32") = R.squeeze(lv5, axis=[1])
+ lv7: R.Tensor((4,), dtype="float32") = R.negative(lv6)
+ lv8: R.Tensor((4,), dtype="bool") = R.not_equal(
R.const([0, 1, 2, 1], dtype="int64"), R.const(-100,
"int64")
)
- lv10: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
- lv11: R.Tensor((4,), dtype="float32") = R.where(lv9, lv8, lv10)
- lv12: R.Tensor((4,), dtype="bool") = R.not_equal(
+ lv9: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
+ lv10: R.Tensor((4,), dtype="float32") = R.where(lv8, lv7, lv9)
+ lv11: R.Tensor((4,), dtype="bool") = R.not_equal(
R.const([0, 1, 2, 1], dtype="int64"), R.const(-100,
"int64")
)
- lv13: R.Tensor((), dtype="bool") = R.sum(lv12, axis=None,
keepdims=False)
- lv14: R.Tensor((), dtype="float32") = R.astype(lv13,
dtype="float32")
- lv15: R.Tensor((), dtype="float32") = R.sum(lv11, axis=None,
keepdims=False)
- lv16: R.Tensor((), dtype="float32") = R.divide(lv15, lv14)
- gv: R.Tuple(R.Tensor((), dtype="float32")) = (lv16,)
+ lv12: R.Tensor((), dtype="bool") = R.sum(lv11, axis=None,
keepdims=False)
+ lv13: R.Tensor((), dtype="float32") = R.astype(lv12,
dtype="float32")
+ lv14: R.Tensor((), dtype="float32") = R.sum(lv10, axis=None,
keepdims=False)
+ lv15: R.Tensor((), dtype="float32") = R.divide(lv14, lv13)
+ gv: R.Tuple(R.Tensor((), dtype="float32")) = (lv15,)
R.output(gv)
return gv
@@ -8353,7 +8281,7 @@ def test_dynamic_shape_with_range_constraints():
x1: R.Tensor(("s0", 4), dtype="float32"), x2: R.Tensor(("s0", 4),
dtype="float32")
) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
s0 = T.int64(is_size_var=True)
- R.func_attr({"tir_var_lower_bound": {"s0": 1},
"tir_var_upper_bound": {"s0": 64}})
+ R.func_attr({"tir_var_lower_bound": {"s24": 1},
"tir_var_upper_bound": {"s24": 64}})
with R.dataflow():
lv: R.Tensor((s0, 4), dtype="float32") = R.add(x1, x2)
gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
@@ -8389,8 +8317,8 @@ def test_dynamic_shape_with_addition_constraints():
s0___1 = T.int64(is_size_var=True)
R.func_attr(
{
- "tir_var_lower_bound": {"s0": 1, "s0___1": 2},
- "tir_var_upper_bound": {"s0": 64, "s0___1": 65},
+ "tir_var_lower_bound": {"s77": 1, "s77___1": 2},
+ "tir_var_upper_bound": {"s77": 64, "s77___1": 65},
}
)
with R.dataflow():
@@ -8417,19 +8345,19 @@ def test_dynamic_shape_with_subtraction_constraints():
class Expected:
@R.function
def main(
- x: R.Tensor(("s1___1", 4), dtype="float32"), y: R.Tensor(("s1",
4), dtype="float32")
- ) -> R.Tuple(R.Tensor(("s1___1 + s1", 4), dtype="float32")):
- s1___1 = T.int64(is_size_var=True)
- s1 = T.int64(is_size_var=True)
+ x: R.Tensor(("s0___1", 4), dtype="float32"), y: R.Tensor(("s0",
4), dtype="float32")
+ ) -> R.Tuple(R.Tensor(("s0___1 + s0", 4), dtype="float32")):
+ s0___1 = T.int64(is_size_var=True)
+ s0 = T.int64(is_size_var=True)
R.func_attr(
{
- "tir_var_lower_bound": {"s1": 0, "s1___1": 1},
- "tir_var_upper_bound": {"s1": 63, "s1___1": 64},
+ "tir_var_lower_bound": {"s17": 0, "s17___1": 1},
+ "tir_var_upper_bound": {"s17": 63, "s17___1": 64},
}
)
with R.dataflow():
- lv: R.Tensor((s1___1 + s1, 4), dtype="float32") = R.concat((x,
y), axis=0)
- gv: R.Tuple(R.Tensor((s1___1 + s1, 4), dtype="float32")) =
(lv,)
+ lv: R.Tensor((s0___1 + s0, 4), dtype="float32") = R.concat((x,
y), axis=0)
+ gv: R.Tuple(R.Tensor((s0___1 + s0, 4), dtype="float32")) =
(lv,)
R.output(gv)
return gv
@@ -8457,8 +8385,8 @@ def test_dynamic_shape_with_multiplication_constraints():
s0_2 = T.int64(is_size_var=True)
R.func_attr(
{
- "tir_var_lower_bound": {"s0": 1, "s0_2": 2},
- "tir_var_upper_bound": {"s0": 64, "s0_2": 128},
+ "tir_var_lower_bound": {"s77": 1, "s77_2": 2},
+ "tir_var_upper_bound": {"s77": 64, "s77_2": 128},
}
)
with R.dataflow():
@@ -8488,7 +8416,7 @@ def test_dynamic_shape_with_unbounded_constraints():
x: R.Tensor(("s0", 4), dtype="float32")
) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
s0 = T.int64(is_size_var=True)
- R.func_attr({"tir_var_lower_bound": {"s0": 2}})
+ R.func_attr({"tir_var_lower_bound": {"s77": 2}})
with R.dataflow():
lv: R.Tensor((s0, 4), dtype="float32") = R.add(x, x)
gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
@@ -8555,7 +8483,7 @@ def test_sym_size_int():
x: R.Tensor(("s0", 3, 4), dtype="float32")
) -> R.Tuple(R.Tensor(("s0", 12), dtype="float32")):
s0 = T.int64(is_size_var=True)
- R.func_attr({"tir_var_lower_bound": {"s0": 0}})
+ R.func_attr({"tir_var_lower_bound": {"s77": 0}})
with R.dataflow():
lv: R.Tensor((s0, 12), dtype="float32") = R.reshape(x,
R.shape([s0, 12]))
gv: R.Tuple(R.Tensor((s0, 12), dtype="float32")) = (lv,)
@@ -8565,7 +8493,12 @@ def test_sym_size_int():
example_args_2 = (torch.randn(2, 3, 4),)
dynamic_shapes = {"x": {0: torch.export.Dim("dim")}}
verify_model(
- SymSizeIntDynamic(dim=0), example_args_2, {}, Expected2,
dynamic_shapes=dynamic_shapes
+ SymSizeIntDynamic(dim=0),
+ example_args_2,
+ {},
+ Expected2,
+ dynamic_shapes=dynamic_shapes,
+ map_free_vars=True,
)
diff --git a/tests/python/relax/test_frontend_onnx.py
b/tests/python/relax/test_frontend_onnx.py
index 62af660a31..2cdf7e9b74 100644
--- a/tests/python/relax/test_frontend_onnx.py
+++ b/tests/python/relax/test_frontend_onnx.py
@@ -3536,6 +3536,7 @@ def test_nms():
)
model = helper.make_model(graph, producer_name="nms_test")
+ model.ir_version = 8
model.opset_import[0].version = 11
# Use deterministic random inputs for consistent testing
@@ -3700,6 +3701,7 @@ def test_nms_iou_suppression():
)
model = helper.make_model(graph, producer_name="nms_test_iou_suppression")
+ model.ir_version = 8
model.opset_import[0].version = 11
inputs = {
@@ -3794,6 +3796,7 @@ def test_nms_max_boxes_limit():
)
model = helper.make_model(graph, producer_name="nms_test_max_boxes_limit")
+ model.ir_version = 8
model.opset_import[0].version = 11
inputs = {
@@ -3885,6 +3888,7 @@ def test_nms_score_threshold():
)
model = helper.make_model(graph, producer_name="nms_test_score_threshold")
+ model.ir_version = 8
model.opset_import[0].version = 11
inputs = {
diff --git a/tests/scripts/task_python_unittest_gpuonly.sh
b/tests/scripts/task_python_unittest_gpuonly.sh
index 3173bc9157..7c1d52a429 100755
--- a/tests/scripts/task_python_unittest_gpuonly.sh
+++ b/tests/scripts/task_python_unittest_gpuonly.sh
@@ -21,7 +21,8 @@ set -euxo pipefail
export PYTEST_ADDOPTS="-m gpu ${PYTEST_ADDOPTS:-}"
# Test most of the enabled runtimes here.
-export
TVM_TEST_TARGETS='cuda;opencl;metal;rocm;nvptx;{"kind":"opencl","device":"mali"}'
+# TODO: disabled opencl tests due to segmentation fault. need to re-land
"opencl" and "{"kind":"opencl","device":"mali"}"
+export TVM_TEST_TARGETS='cuda;metal;rocm;nvptx'
export TVM_UNITTEST_TESTSUITE_NAME=python-unittest-gpu
./tests/scripts/task_python_unittest.sh
@@ -35,6 +36,8 @@ source tests/scripts/setup-pytest-env.sh
run_pytest ${TVM_UNITTEST_TESTSUITE_NAME}-1
tests/python/codegen/test_target_codegen_vulkan.py
+# TODO: disabled opencl tests due to segmentation fault
+exit 0
# Adreno : A comprehensive Texture tests on Nvidia GPU and clml codegen tests.
export PYTEST_ADDOPTS=""