This is an automated email from the ASF dual-hosted git repository.

mshr pushed a commit to branch main
in repository https://gitbox.apache.org/repos/asf/tvm.git


The following commit(s) were added to refs/heads/main by this push:
     new c6b3feac48 [CI] Update images to `20260214-152058-2a448ce4` (#18775)
c6b3feac48 is described below

commit c6b3feac48a3d66b22e15e70106e8b6a600b00a0
Author: Masahiro Hiramori <[email protected]>
AuthorDate: Tue Feb 17 13:59:13 2026 +0900

    [CI] Update images to `20260214-152058-2a448ce4` (#18775)
    
    Update the CI docker images to include Python 3.10, PyTorch 2.10, ONNX 
1.20.1 and so on.
    Part of #18682
---
 ci/jenkins/docker-images.ini                       |  11 +-
 tests/python/relax/test_frontend_dynamo.py         |   6 +-
 .../relax/test_frontend_from_exported_program.py   | 839 ++++++++++-----------
 tests/python/relax/test_frontend_onnx.py           |   4 +
 tests/scripts/task_python_unittest_gpuonly.sh      |   5 +-
 5 files changed, 403 insertions(+), 462 deletions(-)

diff --git a/ci/jenkins/docker-images.ini b/ci/jenkins/docker-images.ini
index 44f58d3573..a5a8d4ad51 100644
--- a/ci/jenkins/docker-images.ini
+++ b/ci/jenkins/docker-images.ini
@@ -17,8 +17,9 @@
 
 # This data file is read during when Jenkins runs job to determine docker 
images.
 [jenkins]
-ci_arm: tlcpack/ci-arm:20250513-063354-70aa3797
-ci_cpu: tlcpack/ci_cpu:20250513-063354-70aa3797
-ci_gpu: tlcpack/ci-gpu:20250513-063354-70aa3797
-ci_lint: tlcpack/ci-lint:20250513-063354-70aa3797
-ci_wasm: tlcpack/ci-wasm:20250513-063354-70aa3797
+ci_tag: 20260215-190124-d5371954
+ci_arm: tlcpack/ci-arm:%(ci_tag)s
+ci_cpu: tlcpack/ci_cpu:%(ci_tag)s
+ci_gpu: tlcpack/ci-gpu:%(ci_tag)s
+ci_lint: tlcpack/ci-lint:%(ci_tag)s
+ci_wasm: tlcpack/ci-wasm:%(ci_tag)s
diff --git a/tests/python/relax/test_frontend_dynamo.py 
b/tests/python/relax/test_frontend_dynamo.py
index 8b10596ce6..1376232d99 100644
--- a/tests/python/relax/test_frontend_dynamo.py
+++ b/tests/python/relax/test_frontend_dynamo.py
@@ -222,7 +222,7 @@ def test_subgraph_capture():
         @R.function
         def subgraph_0(
             inp_0: R.Tensor((10,), dtype="float32"), inp_1: R.Tensor((10,), 
dtype="float32")
-        ) -> R.Tuple(R.Tensor((10,), dtype="float32"), R.Tensor((), 
dtype="bool")):
+        ) -> R.Tuple(R.Tensor((), dtype="bool"), R.Tensor((10,), 
dtype="float32")):
             # block 0
             with R.dataflow():
                 lv: R.Tensor((10,), dtype="float32") = R.sin(inp_0)
@@ -230,9 +230,9 @@ def test_subgraph_capture():
                 lv2: R.Tensor((10,), dtype="float32") = R.divide(inp_0, lv1)
                 lv3: R.Tensor((), dtype="float32") = R.sum(inp_1, axis=None, 
keepdims=False)
                 lv4: R.Tensor((), dtype="bool") = R.less(lv3, R.const(1.0, 
"float32"))
-                gv: R.Tuple(R.Tensor((10,), dtype="float32"), R.Tensor((), 
dtype="bool")) = (
-                    lv2,
+                gv: R.Tuple(R.Tensor((), dtype="bool"), R.Tensor((10,), 
dtype="float32")) = (
                     lv4,
+                    lv2,
                 )
                 R.output(gv)
             return gv
diff --git a/tests/python/relax/test_frontend_from_exported_program.py 
b/tests/python/relax/test_frontend_from_exported_program.py
index 374c21d560..1335c46ac1 100644
--- a/tests/python/relax/test_frontend_from_exported_program.py
+++ b/tests/python/relax/test_frontend_from_exported_program.py
@@ -236,17 +236,17 @@ def test_extended_unary_ops():
     class expected_celu:
         @R.function
         def main(
-            input_1: R.Tensor((1, 3, 10, 10), dtype="float32")
+            input: R.Tensor((1, 3, 10, 10), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input_1)
+                lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
                 lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
                     lv, R.const(1.0, "float32")
                 )
                 lv2: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
-                    input_1, R.const(0.0, "float32")
+                    input, R.const(0.0, "float32")
                 )
-                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv2, 
input_1, lv1)
+                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv2, 
input, lv1)
                 gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv3,)
                 R.output(gv)
             return gv
@@ -403,24 +403,17 @@ def test_extended_unary_ops():
             input: R.Tensor((1, 3, 10, 10), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
-                    input, R.const(0.0, "float32")
-                )
-                lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    input, R.const(1.0, "float32")
-                )
-                lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    input, R.const(1.0, "float32")
-                )
-                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(lv2)
-                lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
-                    lv3, R.const(1.0, "float32")
+                lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
+                lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
+                    R.const(1.0, "float32"), lv
                 )
-                lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    lv4, R.const(1.0, "float32")
+                lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.nn.relu(lv1)
+                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
+                    R.const(-1.0, "float32"), lv2
                 )
-                lv6: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv, 
lv1, lv5)
-                gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv6,)
+                lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = 
R.nn.relu(input)
+                lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.add(lv3, 
lv4)
+                gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv5,)
                 R.output(gv)
             return gv
 
@@ -766,24 +759,17 @@ def test_extended_unary_ops():
             input: R.Tensor((1, 3, 10, 10), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((1, 3, 10, 10), dtype="bool") = R.greater(
-                    input, R.const(0.0, "float32")
-                )
-                lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    input, R.const(1.0507010221481323, "float32")
-                )
-                lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    input, R.const(1.0, "float32")
-                )
-                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(lv2)
-                lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
-                    lv3, R.const(1.0, "float32")
+                lv: R.Tensor((1, 3, 10, 10), dtype="float32") = R.exp(input)
+                lv1: R.Tensor((1, 3, 10, 10), dtype="float32") = R.subtract(
+                    R.const(1.0, "float32"), lv
                 )
-                lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
-                    lv4, R.const(1.7580993175506592, "float32")
+                lv2: R.Tensor((1, 3, 10, 10), dtype="float32") = R.nn.relu(lv1)
+                lv3: R.Tensor((1, 3, 10, 10), dtype="float32") = R.multiply(
+                    R.const(-1.6732631921768188, "float32"), lv2
                 )
-                lv6: R.Tensor((1, 3, 10, 10), dtype="float32") = R.where(lv, 
lv1, lv5)
-                gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv6,)
+                lv4: R.Tensor((1, 3, 10, 10), dtype="float32") = 
R.nn.relu(input)
+                lv5: R.Tensor((1, 3, 10, 10), dtype="float32") = R.add(lv3, 
lv4)
+                gv: R.Tuple(R.Tensor((1, 3, 10, 10), dtype="float32")) = (lv5,)
                 R.output(gv)
             return gv
 
@@ -4432,430 +4418,422 @@ def test_interpolate():
         def forward(self, input):
             return torch.nn.functional.interpolate(input, (224, 224), 
mode="bicubic")
 
-    @tvm.script.ir_module
+    @I.ir_module
     class expected_bicubic:
         @R.function
         def main(
             input: R.Tensor((1, 3, 112, 112), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((1, 3, 112, 112), dtype="float32") = 
R.astype(input, dtype="float32")
-                lv1: R.Tensor((1, 3, 112, 112), dtype="float32") = 
R.astype(lv, dtype="float32")
-                lv2: R.Tensor((224,), dtype="int64") = R.arange(
+                lv: R.Tensor((224,), dtype="int64") = R.arange(
                     R.prim_value(0), R.prim_value(224), R.prim_value(1), 
dtype="int64"
                 )
-                lv3: R.Tensor((224,), dtype="float32") = R.astype(lv2, 
dtype="float32")
-                lv4: R.Tensor((224,), dtype="int64") = R.arange(
+                lv1: R.Tensor((224,), dtype="float32") = R.astype(lv, 
dtype="float32")
+                lv2: R.Tensor((224,), dtype="int64") = R.arange(
                     R.prim_value(0), R.prim_value(224), R.prim_value(1), 
dtype="int64"
                 )
-                lv5: R.Tensor((224,), dtype="float32") = R.astype(lv4, 
dtype="float32")
-                lv6: R.Tensor((224,), dtype="float32") = R.add(lv5, 
R.const(0.5, "float32"))
-                lv7: R.Tensor((224,), dtype="float32") = R.multiply(lv6, 
R.const(0.5, "float32"))
-                lv8: R.Tensor((224,), dtype="float32") = R.subtract(lv7, 
R.const(0.5, "float32"))
-                lv9: R.Tensor((224,), dtype="float32") = R.add(lv3, 
R.const(0.5, "float32"))
-                lv10: R.Tensor((224,), dtype="float32") = R.multiply(lv9, 
R.const(0.5, "float32"))
-                lv11: R.Tensor((224,), dtype="float32") = R.subtract(lv10, 
R.const(0.5, "float32"))
-                lv12: R.Tensor((224, 1), dtype="float32") = 
R.expand_dims(lv11, axis=[-1])
-                lv13: R.Tensor((224,), dtype="float32") = R.floor(lv8)
-                lv14: R.Tensor((224, 1), dtype="float32") = R.floor(lv12)
-                lv15: R.Tensor((224, 1), dtype="float32") = R.subtract(lv12, 
lv14)
-                lv16: R.Tensor((224, 1), dtype="float32") = R.clip(
+                lv3: R.Tensor((224,), dtype="float32") = R.astype(lv2, 
dtype="float32")
+                lv4: R.Tensor((224,), dtype="float32") = R.add(lv3, 
R.const(0.5, "float32"))
+                lv5: R.Tensor((224,), dtype="float32") = R.multiply(lv4, 
R.const(0.5, "float32"))
+                lv6: R.Tensor((224,), dtype="float32") = R.subtract(lv5, 
R.const(0.5, "float32"))
+                lv7: R.Tensor((224,), dtype="float32") = R.add(lv1, 
R.const(0.5, "float32"))
+                lv8: R.Tensor((224,), dtype="float32") = R.multiply(lv7, 
R.const(0.5, "float32"))
+                lv9: R.Tensor((224,), dtype="float32") = R.subtract(lv8, 
R.const(0.5, "float32"))
+                lv10: R.Tensor((224, 1), dtype="float32") = R.expand_dims(lv9, 
axis=[-1])
+                lv11: R.Tensor((224,), dtype="float32") = R.floor(lv6)
+                lv12: R.Tensor((224, 1), dtype="float32") = R.floor(lv10)
+                lv13: R.Tensor((224, 1), dtype="float32") = R.subtract(lv10, 
lv12)
+                lv14: R.Tensor((224, 1), dtype="float32") = R.clip(
+                    lv13, R.prim_value(T.float64(0.0)), 
R.prim_value(T.float64(1.0))
+                )
+                lv15: R.Tensor((224,), dtype="float32") = R.subtract(lv6, lv11)
+                lv16: R.Tensor((224,), dtype="float32") = R.clip(
                     lv15, R.prim_value(T.float64(0.0)), 
R.prim_value(T.float64(1.0))
                 )
-                lv17: R.Tensor((224,), dtype="float32") = R.subtract(lv8, lv13)
-                lv18: R.Tensor((224,), dtype="float32") = R.clip(
-                    lv17, R.prim_value(T.float64(0.0)), 
R.prim_value(T.float64(1.0))
-                )
-                lv19: R.Tensor((224,), dtype="int64") = R.astype(lv13, 
dtype="int64")
-                lv20: R.Tensor((224, 1), dtype="int64") = R.astype(lv14, 
dtype="int64")
-                lv21: R.Tensor((224, 1), dtype="int64") = R.subtract(lv20, 
R.const(1, "int64"))
-                lv22: R.Tensor((224, 1), dtype="int64") = R.add(lv20, 
R.const(1, "int64"))
-                lv23: R.Tensor((224, 1), dtype="int64") = R.add(lv20, 
R.const(2, "int64"))
-                lv24: R.Tensor((224,), dtype="int64") = R.subtract(lv19, 
R.const(1, "int64"))
-                lv25: R.Tensor((224,), dtype="int64") = R.add(lv19, R.const(1, 
"int64"))
-                lv26: R.Tensor((224,), dtype="int64") = R.add(lv19, R.const(2, 
"int64"))
-                lv27: R.Tensor((224,), dtype="float32") = 
R.subtract(R.const(1.0, "float32"), lv18)
-                lv28: R.Tensor((448,), dtype="float32") = R.concat((lv18, 
lv27), axis=0)
-                lv29: R.Tensor((2, 224), dtype="float32") = R.reshape(lv28, 
R.shape([2, 224]))
-                lv30: R.Tensor((224,), dtype="float32") = R.add(lv18, 
R.const(1.0, "float32"))
-                lv31: R.Tensor((224,), dtype="float32") = 
R.subtract(R.const(2.0, "float32"), lv18)
-                lv32: R.Tensor((448,), dtype="float32") = R.concat((lv30, 
lv31), axis=0)
-                lv33: R.Tensor((2, 224), dtype="float32") = R.reshape(lv32, 
R.shape([2, 224]))
-                lv34: R.Tensor((2, 224), dtype="float32") = R.multiply(
-                    lv33, R.const(-0.75, "float32")
-                )
-                lv35: R.Tensor((2, 224), dtype="float32") = R.subtract(
-                    lv34, R.const(-3.75, "float32")
-                )
-                lv36: R.Tensor((2, 224), dtype="float32") = R.multiply(lv35, 
lv33)
-                lv37: R.Tensor((2, 224), dtype="float32") = R.add(lv36, 
R.const(-6.0, "float32"))
-                lv38: R.Tensor((2, 224), dtype="float32") = R.multiply(lv37, 
lv33)
-                lv39: R.Tensor((2, 224), dtype="float32") = R.subtract(
-                    lv38, R.const(-3.0, "float32")
-                )
-                lv40: R.Tensor((2, 224), dtype="float32") = R.multiply(
-                    lv29, R.const(1.25, "float32")
+                lv17: R.Tensor((224,), dtype="int64") = R.astype(lv11, 
dtype="int64")
+                lv18: R.Tensor((224, 1), dtype="int64") = R.astype(lv12, 
dtype="int64")
+                lv19: R.Tensor((224, 1), dtype="int64") = R.subtract(lv18, 
R.const(1, "int64"))
+                lv20: R.Tensor((224, 1), dtype="int64") = R.add(lv18, 
R.const(1, "int64"))
+                lv21: R.Tensor((224, 1), dtype="int64") = R.add(lv18, 
R.const(2, "int64"))
+                lv22: R.Tensor((224,), dtype="int64") = R.subtract(lv17, 
R.const(1, "int64"))
+                lv23: R.Tensor((224,), dtype="int64") = R.add(lv17, R.const(1, 
"int64"))
+                lv24: R.Tensor((224,), dtype="int64") = R.add(lv17, R.const(2, 
"int64"))
+                lv25: R.Tensor((224,), dtype="float32") = 
R.subtract(R.const(1.0, "float32"), lv16)
+                lv26: R.Tensor((448,), dtype="float32") = R.concat((lv16, 
lv25), axis=0)
+                lv27: R.Tensor((2, 224), dtype="float32") = R.reshape(lv26, 
R.shape([2, 224]))
+                lv28: R.Tensor((224,), dtype="float32") = R.add(lv16, 
R.const(1.0, "float32"))
+                lv29: R.Tensor((224,), dtype="float32") = 
R.subtract(R.const(2.0, "float32"), lv16)
+                lv30: R.Tensor((448,), dtype="float32") = R.concat((lv28, 
lv29), axis=0)
+                lv31: R.Tensor((2, 224), dtype="float32") = R.reshape(lv30, 
R.shape([2, 224]))
+                lv32: R.Tensor((2, 224), dtype="float32") = R.multiply(
+                    lv31, R.const(-0.75, "float32")
+                )
+                lv33: R.Tensor((2, 224), dtype="float32") = R.subtract(
+                    lv32, R.const(-3.75, "float32")
+                )
+                lv34: R.Tensor((2, 224), dtype="float32") = R.multiply(lv33, 
lv31)
+                lv35: R.Tensor((2, 224), dtype="float32") = R.add(lv34, 
R.const(-6.0, "float32"))
+                lv36: R.Tensor((2, 224), dtype="float32") = R.multiply(lv35, 
lv31)
+                lv37: R.Tensor((2, 224), dtype="float32") = R.subtract(
+                    lv36, R.const(-3.0, "float32")
+                )
+                lv38: R.Tensor((2, 224), dtype="float32") = R.multiply(
+                    lv27, R.const(1.25, "float32")
                 )
-                lv41: R.Tensor((2, 224), dtype="float32") = R.subtract(
-                    lv40, R.const(2.25, "float32")
+                lv39: R.Tensor((2, 224), dtype="float32") = R.subtract(
+                    lv38, R.const(2.25, "float32")
                 )
-                lv42: R.Tensor((2, 224), dtype="float32") = R.multiply(lv41, 
lv29)
-                lv43: R.Tensor((2, 224), dtype="float32") = R.multiply(lv42, 
lv29)
-                lv44: R.Tensor((2, 224), dtype="float32") = R.add(lv43, 
R.const(1.0, "float32"))
-                lv45: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
-                    lv39,
+                lv40: R.Tensor((2, 224), dtype="float32") = R.multiply(lv39, 
lv27)
+                lv41: R.Tensor((2, 224), dtype="float32") = R.multiply(lv40, 
lv27)
+                lv42: R.Tensor((2, 224), dtype="float32") = R.add(lv41, 
R.const(1.0, "float32"))
+                lv43: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+                    lv37,
                     (R.prim_value(0),),
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv46: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
-                    lv39,
+                lv44: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+                    lv37,
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(2),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv47: R.Tensor((224,), dtype="float32") = R.squeeze(lv45, 
axis=[0])
-                lv48: R.Tensor((224,), dtype="float32") = R.squeeze(lv46, 
axis=[0])
-                lv49: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
-                    lv44,
+                lv45: R.Tensor((224,), dtype="float32") = R.squeeze(lv43, 
axis=[0])
+                lv46: R.Tensor((224,), dtype="float32") = R.squeeze(lv44, 
axis=[0])
+                lv47: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+                    lv42,
                     (R.prim_value(0),),
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv50: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
-                    lv44,
+                lv48: R.Tensor((1, 224), dtype="float32") = R.strided_slice(
+                    lv42,
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(2),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv51: R.Tensor((224,), dtype="float32") = R.squeeze(lv49, 
axis=[0])
-                lv52: R.Tensor((224,), dtype="float32") = R.squeeze(lv50, 
axis=[0])
-                lv53: R.Tensor((224, 1), dtype="float32") = R.subtract(
-                    R.const(1.0, "float32"), lv16
+                lv49: R.Tensor((224,), dtype="float32") = R.squeeze(lv47, 
axis=[0])
+                lv50: R.Tensor((224,), dtype="float32") = R.squeeze(lv48, 
axis=[0])
+                lv51: R.Tensor((224, 1), dtype="float32") = R.subtract(
+                    R.const(1.0, "float32"), lv14
                 )
-                lv54: R.Tensor((448, 1), dtype="float32") = R.concat((lv16, 
lv53), axis=0)
-                lv55: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv54, 
R.shape([2, 224, 1]))
-                lv56: R.Tensor((224, 1), dtype="float32") = R.add(lv16, 
R.const(1.0, "float32"))
-                lv57: R.Tensor((224, 1), dtype="float32") = R.subtract(
-                    R.const(2.0, "float32"), lv16
+                lv52: R.Tensor((448, 1), dtype="float32") = R.concat((lv14, 
lv51), axis=0)
+                lv53: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv52, 
R.shape([2, 224, 1]))
+                lv54: R.Tensor((224, 1), dtype="float32") = R.add(lv14, 
R.const(1.0, "float32"))
+                lv55: R.Tensor((224, 1), dtype="float32") = R.subtract(
+                    R.const(2.0, "float32"), lv14
                 )
-                lv58: R.Tensor((448, 1), dtype="float32") = R.concat((lv56, 
lv57), axis=0)
-                lv59: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv58, 
R.shape([2, 224, 1]))
-                lv60: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
-                    lv59, R.const(-0.75, "float32")
+                lv56: R.Tensor((448, 1), dtype="float32") = R.concat((lv54, 
lv55), axis=0)
+                lv57: R.Tensor((2, 224, 1), dtype="float32") = R.reshape(lv56, 
R.shape([2, 224, 1]))
+                lv58: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
+                    lv57, R.const(-0.75, "float32")
                 )
-                lv61: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
-                    lv60, R.const(-3.75, "float32")
+                lv59: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+                    lv58, R.const(-3.75, "float32")
                 )
-                lv62: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv61, lv59)
-                lv63: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv62, 
R.const(-6.0, "float32"))
-                lv64: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv63, lv59)
-                lv65: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
-                    lv64, R.const(-3.0, "float32")
+                lv60: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv59, lv57)
+                lv61: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv60, 
R.const(-6.0, "float32"))
+                lv62: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv61, lv57)
+                lv63: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+                    lv62, R.const(-3.0, "float32")
                 )
-                lv66: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
-                    lv55, R.const(1.25, "float32")
+                lv64: R.Tensor((2, 224, 1), dtype="float32") = R.multiply(
+                    lv53, R.const(1.25, "float32")
                 )
-                lv67: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
-                    lv66, R.const(2.25, "float32")
+                lv65: R.Tensor((2, 224, 1), dtype="float32") = R.subtract(
+                    lv64, R.const(2.25, "float32")
                 )
-                lv68: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv67, lv55)
-                lv69: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv68, lv55)
-                lv70: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv69, 
R.const(1.0, "float32"))
-                lv71: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
-                    lv65,
+                lv66: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv65, lv53)
+                lv67: R.Tensor((2, 224, 1), dtype="float32") = 
R.multiply(lv66, lv53)
+                lv68: R.Tensor((2, 224, 1), dtype="float32") = R.add(lv67, 
R.const(1.0, "float32"))
+                lv69: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+                    lv63,
                     (R.prim_value(0),),
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv72: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
-                    lv65,
+                lv70: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+                    lv63,
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(2),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv73: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv71, 
axis=[0])
-                lv74: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv72, 
axis=[0])
-                lv75: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
-                    lv70,
+                lv71: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv69, 
axis=[0])
+                lv72: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv70, 
axis=[0])
+                lv73: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+                    lv68,
                     (R.prim_value(0),),
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv76: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
-                    lv70,
+                lv74: R.Tensor((1, 224, 1), dtype="float32") = R.strided_slice(
+                    lv68,
                     (R.prim_value(0),),
                     (R.prim_value(1),),
                     (R.prim_value(2),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                lv77: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv75, 
axis=[0])
-                lv78: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv76, 
axis=[0])
-                lv79: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv21, R.prim_value(0), R.prim_value(111)
-                )
-                lv80: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv24, R.prim_value(0), R.prim_value(111)
+                lv75: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv73, 
axis=[0])
+                lv76: R.Tensor((224, 1), dtype="float32") = R.squeeze(lv74, 
axis=[0])
+                lv77: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv19, R.prim_value(0), R.prim_value(111)
                 )
-                lv81: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv80, axis=3, mode="fast"
+                lv78: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv22, R.prim_value(0), R.prim_value(111)
                 )
-                lv82: R.Tensor((224,), dtype="int64") = R.squeeze(lv79, 
axis=None)
-                lv83: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv81, lv82, axis=2, mode="fast"
+                lv79: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv78, axis=3, mode="fast"
                 )
-                lv84: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv21, R.prim_value(0), R.prim_value(111)
+                lv80: R.Tensor((224,), dtype="int64") = R.squeeze(lv77, 
axis=None)
+                lv81: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv79, lv80, axis=2, mode="fast"
                 )
-                lv85: R.Tensor((224,), dtype="int64") = R.clip(
+                lv82: R.Tensor((224, 1), dtype="int64") = R.clip(
                     lv19, R.prim_value(0), R.prim_value(111)
                 )
-                lv86: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv85, axis=3, mode="fast"
+                lv83: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv17, R.prim_value(0), R.prim_value(111)
                 )
-                lv87: R.Tensor((224,), dtype="int64") = R.squeeze(lv84, 
axis=None)
-                lv88: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv86, lv87, axis=2, mode="fast"
+                lv84: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv83, axis=3, mode="fast"
                 )
-                lv89: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv21, R.prim_value(0), R.prim_value(111)
+                lv85: R.Tensor((224,), dtype="int64") = R.squeeze(lv82, 
axis=None)
+                lv86: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv84, lv85, axis=2, mode="fast"
                 )
-                lv90: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv25, R.prim_value(0), R.prim_value(111)
+                lv87: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv19, R.prim_value(0), R.prim_value(111)
                 )
-                lv91: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv90, axis=3, mode="fast"
+                lv88: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv23, R.prim_value(0), R.prim_value(111)
                 )
-                lv92: R.Tensor((224,), dtype="int64") = R.squeeze(lv89, 
axis=None)
-                lv93: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv91, lv92, axis=2, mode="fast"
+                lv89: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv88, axis=3, mode="fast"
                 )
-                lv94: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv21, R.prim_value(0), R.prim_value(111)
+                lv90: R.Tensor((224,), dtype="int64") = R.squeeze(lv87, 
axis=None)
+                lv91: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv89, lv90, axis=2, mode="fast"
                 )
-                lv95: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv26, R.prim_value(0), R.prim_value(111)
+                lv92: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv19, R.prim_value(0), R.prim_value(111)
                 )
-                lv96: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv95, axis=3, mode="fast"
+                lv93: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv24, R.prim_value(0), R.prim_value(111)
                 )
-                lv97: R.Tensor((224,), dtype="int64") = R.squeeze(lv94, 
axis=None)
-                lv98: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv96, lv97, axis=2, mode="fast"
+                lv94: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv93, axis=3, mode="fast"
                 )
-                lv99: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv83, lv47)
-                lv100: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv88, lv51)
+                lv95: R.Tensor((224,), dtype="int64") = R.squeeze(lv92, 
axis=None)
+                lv96: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv94, lv95, axis=2, mode="fast"
+                )
+                lv97: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv81, lv45)
+                lv98: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv86, lv49)
+                lv99: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv97, lv98)
+                lv100: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv91, lv50)
                 lv101: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv99, lv100)
-                lv102: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv93, lv52)
+                lv102: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv96, lv46)
                 lv103: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv101, lv102)
-                lv104: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv98, lv48)
-                lv105: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv103, lv104)
-                lv106: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv20, R.prim_value(0), R.prim_value(111)
+                lv104: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv18, R.prim_value(0), R.prim_value(111)
                 )
-                lv107: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv24, R.prim_value(0), R.prim_value(111)
+                lv105: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv22, R.prim_value(0), R.prim_value(111)
                 )
-                lv108: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv107, axis=3, mode="fast"
+                lv106: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv105, axis=3, mode="fast"
                 )
-                lv109: R.Tensor((224,), dtype="int64") = R.squeeze(lv106, 
axis=None)
-                lv110: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv108, lv109, axis=2, mode="fast"
+                lv107: R.Tensor((224,), dtype="int64") = R.squeeze(lv104, 
axis=None)
+                lv108: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv106, lv107, axis=2, mode="fast"
                 )
-                lv111: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv20, R.prim_value(0), R.prim_value(111)
+                lv109: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv18, R.prim_value(0), R.prim_value(111)
                 )
-                lv112: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv19, R.prim_value(0), R.prim_value(111)
+                lv110: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv17, R.prim_value(0), R.prim_value(111)
                 )
-                lv113: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv112, axis=3, mode="fast"
+                lv111: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv110, axis=3, mode="fast"
                 )
-                lv114: R.Tensor((224,), dtype="int64") = R.squeeze(lv111, 
axis=None)
-                lv115: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv113, lv114, axis=2, mode="fast"
+                lv112: R.Tensor((224,), dtype="int64") = R.squeeze(lv109, 
axis=None)
+                lv113: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv111, lv112, axis=2, mode="fast"
                 )
-                lv116: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv20, R.prim_value(0), R.prim_value(111)
+                lv114: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv18, R.prim_value(0), R.prim_value(111)
                 )
-                lv117: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv25, R.prim_value(0), R.prim_value(111)
+                lv115: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv23, R.prim_value(0), R.prim_value(111)
                 )
-                lv118: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv117, axis=3, mode="fast"
+                lv116: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv115, axis=3, mode="fast"
                 )
-                lv119: R.Tensor((224,), dtype="int64") = R.squeeze(lv116, 
axis=None)
-                lv120: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv118, lv119, axis=2, mode="fast"
+                lv117: R.Tensor((224,), dtype="int64") = R.squeeze(lv114, 
axis=None)
+                lv118: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv116, lv117, axis=2, mode="fast"
                 )
-                lv121: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv20, R.prim_value(0), R.prim_value(111)
+                lv119: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv18, R.prim_value(0), R.prim_value(111)
                 )
-                lv122: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv26, R.prim_value(0), R.prim_value(111)
+                lv120: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv24, R.prim_value(0), R.prim_value(111)
                 )
-                lv123: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv122, axis=3, mode="fast"
+                lv121: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv120, axis=3, mode="fast"
                 )
-                lv124: R.Tensor((224,), dtype="int64") = R.squeeze(lv121, 
axis=None)
-                lv125: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv123, lv124, axis=2, mode="fast"
+                lv122: R.Tensor((224,), dtype="int64") = R.squeeze(lv119, 
axis=None)
+                lv123: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv121, lv122, axis=2, mode="fast"
                 )
-                lv126: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv110, lv47)
-                lv127: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv115, lv51)
+                lv124: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv108, lv45)
+                lv125: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv113, lv49)
+                lv126: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv124, lv125)
+                lv127: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv118, lv50)
                 lv128: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv126, lv127)
-                lv129: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv120, lv52)
+                lv129: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv123, lv46)
                 lv130: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv128, lv129)
-                lv131: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv125, lv48)
-                lv132: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv130, lv131)
-                lv133: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv22, R.prim_value(0), R.prim_value(111)
+                lv131: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv20, R.prim_value(0), R.prim_value(111)
                 )
-                lv134: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv24, R.prim_value(0), R.prim_value(111)
+                lv132: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv22, R.prim_value(0), R.prim_value(111)
                 )
-                lv135: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv134, axis=3, mode="fast"
+                lv133: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv132, axis=3, mode="fast"
                 )
-                lv136: R.Tensor((224,), dtype="int64") = R.squeeze(lv133, 
axis=None)
-                lv137: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv135, lv136, axis=2, mode="fast"
+                lv134: R.Tensor((224,), dtype="int64") = R.squeeze(lv131, 
axis=None)
+                lv135: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv133, lv134, axis=2, mode="fast"
                 )
-                lv138: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv22, R.prim_value(0), R.prim_value(111)
+                lv136: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv20, R.prim_value(0), R.prim_value(111)
                 )
-                lv139: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv19, R.prim_value(0), R.prim_value(111)
+                lv137: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv17, R.prim_value(0), R.prim_value(111)
                 )
-                lv140: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv139, axis=3, mode="fast"
+                lv138: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv137, axis=3, mode="fast"
                 )
-                lv141: R.Tensor((224,), dtype="int64") = R.squeeze(lv138, 
axis=None)
-                lv142: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv140, lv141, axis=2, mode="fast"
+                lv139: R.Tensor((224,), dtype="int64") = R.squeeze(lv136, 
axis=None)
+                lv140: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv138, lv139, axis=2, mode="fast"
                 )
-                lv143: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv22, R.prim_value(0), R.prim_value(111)
+                lv141: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv20, R.prim_value(0), R.prim_value(111)
                 )
-                lv144: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv25, R.prim_value(0), R.prim_value(111)
+                lv142: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv23, R.prim_value(0), R.prim_value(111)
                 )
-                lv145: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv144, axis=3, mode="fast"
+                lv143: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv142, axis=3, mode="fast"
                 )
-                lv146: R.Tensor((224,), dtype="int64") = R.squeeze(lv143, 
axis=None)
-                lv147: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv145, lv146, axis=2, mode="fast"
+                lv144: R.Tensor((224,), dtype="int64") = R.squeeze(lv141, 
axis=None)
+                lv145: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv143, lv144, axis=2, mode="fast"
                 )
-                lv148: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv22, R.prim_value(0), R.prim_value(111)
+                lv146: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv20, R.prim_value(0), R.prim_value(111)
                 )
-                lv149: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv26, R.prim_value(0), R.prim_value(111)
+                lv147: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv24, R.prim_value(0), R.prim_value(111)
                 )
-                lv150: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv149, axis=3, mode="fast"
+                lv148: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv147, axis=3, mode="fast"
                 )
-                lv151: R.Tensor((224,), dtype="int64") = R.squeeze(lv148, 
axis=None)
-                lv152: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv150, lv151, axis=2, mode="fast"
+                lv149: R.Tensor((224,), dtype="int64") = R.squeeze(lv146, 
axis=None)
+                lv150: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv148, lv149, axis=2, mode="fast"
                 )
-                lv153: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv137, lv47)
-                lv154: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv142, lv51)
+                lv151: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv135, lv45)
+                lv152: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv140, lv49)
+                lv153: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv151, lv152)
+                lv154: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv145, lv50)
                 lv155: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv153, lv154)
-                lv156: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv147, lv52)
+                lv156: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv150, lv46)
                 lv157: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv155, lv156)
-                lv158: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv152, lv48)
-                lv159: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv157, lv158)
-                lv160: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv23, R.prim_value(0), R.prim_value(111)
+                lv158: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv21, R.prim_value(0), R.prim_value(111)
                 )
-                lv161: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv24, R.prim_value(0), R.prim_value(111)
+                lv159: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv22, R.prim_value(0), R.prim_value(111)
                 )
-                lv162: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv161, axis=3, mode="fast"
+                lv160: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv159, axis=3, mode="fast"
                 )
-                lv163: R.Tensor((224,), dtype="int64") = R.squeeze(lv160, 
axis=None)
-                lv164: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv162, lv163, axis=2, mode="fast"
+                lv161: R.Tensor((224,), dtype="int64") = R.squeeze(lv158, 
axis=None)
+                lv162: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv160, lv161, axis=2, mode="fast"
                 )
-                lv165: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv23, R.prim_value(0), R.prim_value(111)
+                lv163: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv21, R.prim_value(0), R.prim_value(111)
                 )
-                lv166: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv19, R.prim_value(0), R.prim_value(111)
+                lv164: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv17, R.prim_value(0), R.prim_value(111)
                 )
-                lv167: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv166, axis=3, mode="fast"
+                lv165: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv164, axis=3, mode="fast"
                 )
-                lv168: R.Tensor((224,), dtype="int64") = R.squeeze(lv165, 
axis=None)
-                lv169: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv167, lv168, axis=2, mode="fast"
+                lv166: R.Tensor((224,), dtype="int64") = R.squeeze(lv163, 
axis=None)
+                lv167: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv165, lv166, axis=2, mode="fast"
                 )
-                lv170: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv23, R.prim_value(0), R.prim_value(111)
+                lv168: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv21, R.prim_value(0), R.prim_value(111)
                 )
-                lv171: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv25, R.prim_value(0), R.prim_value(111)
+                lv169: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv23, R.prim_value(0), R.prim_value(111)
                 )
-                lv172: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv171, axis=3, mode="fast"
+                lv170: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv169, axis=3, mode="fast"
                 )
-                lv173: R.Tensor((224,), dtype="int64") = R.squeeze(lv170, 
axis=None)
-                lv174: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv172, lv173, axis=2, mode="fast"
+                lv171: R.Tensor((224,), dtype="int64") = R.squeeze(lv168, 
axis=None)
+                lv172: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv170, lv171, axis=2, mode="fast"
                 )
-                lv175: R.Tensor((224, 1), dtype="int64") = R.clip(
-                    lv23, R.prim_value(0), R.prim_value(111)
+                lv173: R.Tensor((224, 1), dtype="int64") = R.clip(
+                    lv21, R.prim_value(0), R.prim_value(111)
                 )
-                lv176: R.Tensor((224,), dtype="int64") = R.clip(
-                    lv26, R.prim_value(0), R.prim_value(111)
+                lv174: R.Tensor((224,), dtype="int64") = R.clip(
+                    lv24, R.prim_value(0), R.prim_value(111)
                 )
-                lv177: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
-                    lv1, lv176, axis=3, mode="fast"
+                lv175: R.Tensor((1, 3, 112, 224), dtype="float32") = R.take(
+                    input, lv174, axis=3, mode="fast"
                 )
-                lv178: R.Tensor((224,), dtype="int64") = R.squeeze(lv175, 
axis=None)
-                lv179: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
-                    lv177, lv178, axis=2, mode="fast"
+                lv176: R.Tensor((224,), dtype="int64") = R.squeeze(lv173, 
axis=None)
+                lv177: R.Tensor((1, 3, 224, 224), dtype="float32") = R.take(
+                    lv175, lv176, axis=2, mode="fast"
                 )
-                lv180: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv164, lv47)
-                lv181: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv169, lv51)
+                lv178: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv162, lv45)
+                lv179: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv167, lv49)
+                lv180: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv178, lv179)
+                lv181: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv172, lv50)
                 lv182: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv180, lv181)
-                lv183: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv174, lv52)
+                lv183: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv177, lv46)
                 lv184: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv182, lv183)
-                lv185: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv179, lv48)
-                lv186: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv184, lv185)
-                lv187: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv105, lv73)
-                lv188: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv132, lv77)
+                lv185: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv103, lv71)
+                lv186: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv130, lv75)
+                lv187: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv185, lv186)
+                lv188: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv157, lv76)
                 lv189: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv187, lv188)
-                lv190: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv159, lv78)
+                lv190: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv184, lv72)
                 lv191: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv189, lv190)
-                lv192: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.multiply(lv186, lv74)
-                lv193: R.Tensor((1, 3, 224, 224), dtype="float32") = 
R.add(lv191, lv192)
-                lv194: R.Tensor((1, 3, 224, 224), dtype="float32") = R.astype(
-                    lv193, dtype="float32"
-                )
-                lv195: R.Tensor((1, 3, 224, 224), dtype="float32") = R.astype(
-                    lv194, dtype="float32"
-                )
-                gv: R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")) = 
(lv195,)
+                gv: R.Tuple(R.Tensor((1, 3, 224, 224), dtype="float32")) = 
(lv191,)
                 R.output(gv)
             return gv
 
@@ -5556,7 +5534,9 @@ def test_select_slice():
         ) -> R.Tuple(R.Tensor((1, 10, 3), dtype="float32")):
             # block 0
             with R.dataflow():
-                lv: R.Tensor((3, 10, 10), dtype="float32") = R.take(x, 
R.const(0, "int64"), axis=0)
+                lv: R.Tensor((3, 10, 10), dtype="float32") = R.take(
+                    x, R.const(0, "int64"), axis=0, mode="fast"
+                )
                 lv1: R.Tensor((1, 10, 10), dtype="float32") = R.strided_slice(
                     lv,
                     (R.prim_value(0),),
@@ -5565,23 +5545,15 @@ def test_select_slice():
                     (R.prim_value(2),),
                     assume_inbound=False,
                 )
-                lv2: R.Tensor((1, 10, 10), dtype="float32") = R.strided_slice(
+                lv2: R.Tensor((1, 10, 3), dtype="float32") = R.strided_slice(
                     lv1,
-                    (R.prim_value(1),),
-                    (R.prim_value(0),),
-                    (R.prim_value(9223372036854775807),),
-                    (R.prim_value(1),),
-                    assume_inbound=False,
-                )
-                lv3: R.Tensor((1, 10, 3), dtype="float32") = R.strided_slice(
-                    lv2,
                     (R.prim_value(2),),
                     (R.prim_value(0),),
                     (R.prim_value(3),),
                     (R.prim_value(1),),
                     assume_inbound=False,
                 )
-                gv: R.Tuple(R.Tensor((1, 10, 3), dtype="float32")) = (lv3,)
+                gv: R.Tuple(R.Tensor((1, 10, 3), dtype="float32")) = (lv2,)
                 R.output(gv)
             return gv
 
@@ -5596,26 +5568,10 @@ def test_select_slice():
             x: R.Tensor((8, 16), dtype="float32")
         ) -> R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((8, 16), dtype="float32") = R.strided_slice(
-                    x,
-                    (R.prim_value(0),),
-                    (R.prim_value(0),),
-                    (R.prim_value(9223372036854775807),),
-                    (R.prim_value(1),),
-                    assume_inbound=False,
-                )
-                lv1: R.Tensor((8, 1, 16), dtype="float32") = R.expand_dims(lv, 
axis=[1])
-                lv2: R.Tensor((8, 1, 1, 16), dtype="float32") = 
R.expand_dims(lv1, axis=[2])
-                lv3: R.Tensor((8, 1, 1, 16), dtype="float32") = 
R.strided_slice(
-                    lv2,
-                    (R.prim_value(3),),
-                    (R.prim_value(0),),
-                    (R.prim_value(9223372036854775807),),
-                    (R.prim_value(1),),
-                    assume_inbound=False,
-                )
-                lv4: R.Tensor((8, 1, 1, 16, 1), dtype="float32") = 
R.expand_dims(lv3, axis=[4])
-                gv: R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")) = 
(lv4,)
+                lv: R.Tensor((8, 1, 16), dtype="float32") = R.expand_dims(x, 
axis=[1])
+                lv1: R.Tensor((8, 1, 1, 16), dtype="float32") = 
R.expand_dims(lv, axis=[2])
+                lv2: R.Tensor((8, 1, 1, 16, 1), dtype="float32") = 
R.expand_dims(lv1, axis=[4])
+                gv: R.Tuple(R.Tensor((8, 1, 1, 16, 1), dtype="float32")) = 
(lv2,)
                 R.output(gv)
             return gv
 
@@ -6365,12 +6321,7 @@ def test_masked_select():
         def main(
             data: R.Tensor((2, 3), dtype="float32"), mask: R.Tensor((2, 3), 
dtype="bool")
         ) -> R.Tuple(R.Tensor(dtype="float32", ndim=1)):
-            R.func_attr(
-                {
-                    "tir_var_lower_bound": {"u0": 0, "u1": 0},
-                    "tir_var_upper_bound": {"u0": 6, "u1": 6},
-                }
-            )
+            R.func_attr({"tir_var_lower_bound": {"u0": 0}, 
"tir_var_upper_bound": {"u0": 6}})
             with R.dataflow():
                 lv: R.Tensor((6,), dtype="float32") = R.reshape(data, 
R.shape([6]))
                 lv1: R.Tensor((6,), dtype="bool") = R.reshape(mask, 
R.shape([6]))
@@ -6480,8 +6431,7 @@ def test_to_copy():
         ) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
             # block 0
             with R.dataflow():
-                lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(x, 
dtype="float32")
-                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (x,)
                 R.output(gv)
             return gv
 
@@ -6516,8 +6466,7 @@ def test_to_copy():
         ) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
             # block 0
             with R.dataflow():
-                lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(x, 
dtype="float32")
-                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (x,)
                 R.output(gv)
             return gv
 
@@ -6529,10 +6478,10 @@ def test_to_copy():
     class expected_to1:
         @R.function
         def main(
-            inp_0: R.Tensor((1, 2, 3, 4), dtype="float32")
+            input: R.Tensor((1, 2, 3, 4), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float16")):
             with R.dataflow():
-                lv: R.Tensor((1, 2, 3, 4), dtype="float16") = R.astype(inp_0, 
dtype="float16")
+                lv: R.Tensor((1, 2, 3, 4), dtype="float16") = R.astype(input, 
dtype="float16")
                 gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float16")) = (lv,)
                 R.output(gv)
             return gv
@@ -6545,11 +6494,10 @@ def test_to_copy():
     class expected_to2:
         @R.function
         def main(
-            inp_0: R.Tensor((1, 2, 3, 4), dtype="float32")
+            input: R.Tensor((1, 2, 3, 4), dtype="float32")
         ) -> R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((1, 2, 3, 4), dtype="float32") = R.astype(inp_0, 
dtype="float32")
-                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (lv,)
+                gv: R.Tuple(R.Tensor((1, 2, 3, 4), dtype="float32")) = (input,)
                 R.output(gv)
             return gv
 
@@ -7046,7 +6994,7 @@ def test_index_put():
         ) -> R.Tuple(R.Tensor((64,), dtype="float32"), R.Tensor((64,), 
dtype="float32")):
             with R.dataflow():
                 lv: R.Tensor((64,), dtype="float32") = R.index_put(
-                    data, R.tuple(indices_0), values, accumulate=False
+                    data, (indices_0,), values, accumulate=False
                 )
                 gv: R.Tuple(R.Tensor((64,), dtype="float32"), R.Tensor((64,), 
dtype="float32")) = (
                     lv,
@@ -7079,7 +7027,7 @@ def test_index_put():
         ) -> R.Tuple(R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64), 
dtype="float32")):
             with R.dataflow():
                 lv: R.Tensor((32, 64), dtype="float32") = R.index_put(
-                    data, R.tuple(indices_0, indices_1), values, 
accumulate=False
+                    data, (indices_0, indices_1), values, accumulate=False
                 )
                 gv: R.Tuple(
                     R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64), 
dtype="float32")
@@ -7115,7 +7063,7 @@ def test_index_put():
         ):
             with R.dataflow():
                 lv: R.Tensor((16, 32, 64), dtype="float32") = R.index_put(
-                    data, R.tuple(indices_0, indices_1, indices_2), values, 
accumulate=False
+                    data, (indices_0, indices_1, indices_2), values, 
accumulate=False
                 )
                 gv: R.Tuple(
                     R.Tensor((16, 32, 64), dtype="float32"), R.Tensor((16, 32, 
64), dtype="float32")
@@ -7155,7 +7103,7 @@ def test_index_put():
             with R.dataflow():
                 lv: R.Tensor((8, 16, 32, 64), dtype="float32") = R.index_put(
                     data,
-                    R.tuple(indices_0, indices_1, indices_2, indices_3),
+                    (indices_0, indices_1, indices_2, indices_3),
                     values,
                     accumulate=False,
                 )
@@ -7200,7 +7148,7 @@ def test_index_put():
             with R.dataflow():
                 lv: R.Tensor((4, 8, 16, 32, 64), dtype="float32") = 
R.index_put(
                     data,
-                    R.tuple(indices_0, indices_1, indices_2, indices_3, 
indices_4),
+                    (indices_0, indices_1, indices_2, indices_3, indices_4),
                     values,
                     accumulate=False,
                 )
@@ -7240,7 +7188,7 @@ def test_index_put():
                     R.shape([32, 10]), R.const(1.0, "float32"), dtype="float32"
                 )
                 lv3: R.Tensor((32, 64), dtype="float32") = R.index_put(
-                    data, R.tuple(lv1, indices_1), lv2, accumulate=False
+                    data, (lv1, indices_1), lv2, accumulate=False
                 )
                 gv: R.Tuple(
                     R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64), 
dtype="float32")
@@ -7276,7 +7224,7 @@ def test_index_put():
                     R.shape([10, 64]), R.const(1.0, "float32"), dtype="float32"
                 )
                 lv3: R.Tensor((32, 64), dtype="float32") = R.index_put(
-                    data, R.tuple(indices_0, lv1), lv2, accumulate=False
+                    data, (indices_0, lv1), lv2, accumulate=False
                 )
                 gv: R.Tuple(
                     R.Tensor((32, 64), dtype="float32"), R.Tensor((32, 64), 
dtype="float32")
@@ -7319,7 +7267,7 @@ def test_index_put():
                     R.shape([16, 10, 64]), R.const(1.0, "float32"), 
dtype="float32"
                 )
                 lv5: R.Tensor((16, 32, 64), dtype="float32") = R.index_put(
-                    data, R.tuple(lv1, indices_1, lv3), lv4, accumulate=False
+                    data, (lv1, indices_1, lv3), lv4, accumulate=False
                 )
                 gv: R.Tuple(
                     R.Tensor((16, 32, 64), dtype="float32"), R.Tensor((16, 32, 
64), dtype="float32")
@@ -7353,25 +7301,14 @@ def test_index_put():
                     R.prim_value(0), R.prim_value(10), R.prim_value(1), 
dtype="int64"
                 )
                 lv2: R.Tensor((10,), dtype="int64") = R.add(lv1, R.const(1, 
"int64"))
-                lv3: R.Tensor((2, 11, 11), dtype="float32") = R.strided_slice(
-                    lv,
-                    (R.prim_value(0),),
-                    (R.prim_value(0),),
-                    (R.prim_value(9223372036854775807),),
-                    (R.prim_value(1),),
-                    assume_inbound=False,
-                )
-                lv4: R.Tensor((2,), dtype="int64") = R.arange(
+                lv3: R.Tensor((2,), dtype="int64") = R.arange(
                     R.prim_value(0), R.prim_value(2), R.prim_value(1), 
dtype="int64"
                 )
-                lv5: R.Tensor((2, 1), dtype="int64") = R.reshape(lv4, 
R.shape([2, 1]))
-                lv6: R.Tensor((2, 11, 11), dtype="float32") = R.index_put(
-                    lv3, (lv5, lv1, lv2), x, accumulate=False
-                )
-                lv7: R.Tensor((2, 11, 11), dtype="float32") = R.slice_scatter(
-                    lv, lv6, R.prim_value(0), R.prim_value(2), 
R.prim_value(1), axis=0
+                lv4: R.Tensor((2, 1), dtype="int64") = R.reshape(lv3, 
R.shape([2, 1]))
+                lv5: R.Tensor((2, 11, 11), dtype="float32") = R.index_put(
+                    lv, (lv4, lv1, lv2), x, accumulate=False
                 )
-                gv: R.Tuple(R.Tensor((2, 11, 11), dtype="float32")) = (lv7,)
+                gv: R.Tuple(R.Tensor((2, 11, 11), dtype="float32")) = (lv5,)
                 R.output(gv)
             return gv
 
@@ -7672,19 +7609,18 @@ def test_dynamic_shape():
         def forward(self, x1, x2):
             return torch.ops.aten.add.Tensor(x1, x2)
 
-    B = tvm.tir.SizeVar("BatchSize", dtype="int64")
-
-    @tvm.script.ir_module
+    @I.ir_module
     class Expected:
         @R.function
         def main(
-            lhs: R.Tensor((B, 4), dtype="float32"),
-            rhs: R.Tensor((B, 4), dtype="float32"),
-        ) -> R.Tuple(R.Tensor((B, 4), dtype="float32")):
-            R.func_attr({"tir_var_lower_bound": {"s0": 0}})
+            lhs: R.Tensor(("s0", 4), dtype="float32"),
+            rhs: R.Tensor(("s0", 4), dtype="float32"),
+        ) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
+            s0 = T.int64(is_size_var=True)
+            R.func_attr({"tir_var_lower_bound": {"s24": 0}})
             with R.dataflow():
-                lv: R.Tensor((B, 4), dtype="float32") = R.add(lhs, rhs)
-                gv: R.Tuple(R.Tensor((B, 4), dtype="float32")) = (lv,)
+                lv: R.Tensor((s0, 4), dtype="float32") = R.add(lhs, rhs)
+                gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
                 R.output(gv)
             return gv
 
@@ -7699,6 +7635,7 @@ def test_dynamic_shape():
         Expected,
         dynamic_shapes=dynamic_shapes,
         run_ep_decomposition=True,
+        map_free_vars=True,
     )
 
 
@@ -7896,20 +7833,16 @@ def test_eye():
             input: R.Tensor((3, 5), dtype="float32")
         ) -> R.Tuple(R.Tensor((3, 5), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((3,), dtype="int64") = R.arange(
-                    R.prim_value(0), R.prim_value(3), R.prim_value(1), 
dtype="int64"
+                lv: R.Tensor((3,), dtype="uint8") = R.arange(
+                    R.prim_value(0), R.prim_value(3), R.prim_value(1), 
dtype="uint8"
                 )
-                lv1: R.Tensor((5,), dtype="int64") = R.arange(
-                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="int64"
+                lv1: R.Tensor((5,), dtype="uint8") = R.arange(
+                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="uint8"
                 )
-                lv2: R.Tensor((3, 1), dtype="int64") = R.expand_dims(lv, 
axis=[-1])
+                lv2: R.Tensor((3, 1), dtype="uint8") = R.expand_dims(lv, 
axis=[-1])
                 lv3: R.Tensor((3, 5), dtype="bool") = R.equal(lv2, lv1)
-                lv4: R.Tensor((1,), dtype="float32") = R.full(
-                    R.shape([1]), R.const(1.0, "float32"), dtype="float32"
-                )
-                lv5: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
-                lv6: R.Tensor((3, 5), dtype="float32") = R.where(lv3, lv4, lv5)
-                gv: R.Tuple(R.Tensor((3, 5), dtype="float32")) = (lv6,)
+                lv4: R.Tensor((3, 5), dtype="float32") = R.astype(lv3, 
dtype="float32")
+                gv: R.Tuple(R.Tensor((3, 5), dtype="float32")) = (lv4,)
                 R.output(gv)
             return gv
 
@@ -7924,20 +7857,16 @@ def test_eye():
             input: R.Tensor((5,), dtype="float32")
         ) -> R.Tuple(R.Tensor((5, 5), dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((5,), dtype="int64") = R.arange(
-                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="int64"
+                lv: R.Tensor((5,), dtype="uint8") = R.arange(
+                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="uint8"
                 )
-                lv1: R.Tensor((5,), dtype="int64") = R.arange(
-                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="int64"
+                lv1: R.Tensor((5,), dtype="uint8") = R.arange(
+                    R.prim_value(0), R.prim_value(5), R.prim_value(1), 
dtype="uint8"
                 )
-                lv2: R.Tensor((5, 1), dtype="int64") = R.expand_dims(lv, 
axis=[-1])
+                lv2: R.Tensor((5, 1), dtype="uint8") = R.expand_dims(lv, 
axis=[-1])
                 lv3: R.Tensor((5, 5), dtype="bool") = R.equal(lv2, lv1)
-                lv4: R.Tensor((1,), dtype="float32") = R.full(
-                    R.shape([1]), R.const(1.0, "float32"), dtype="float32"
-                )
-                lv5: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
-                lv6: R.Tensor((5, 5), dtype="float32") = R.where(lv3, lv4, lv5)
-                gv: R.Tuple(R.Tensor((5, 5), dtype="float32")) = (lv6,)
+                lv4: R.Tensor((5, 5), dtype="float32") = R.astype(lv3, 
dtype="float32")
+                gv: R.Tuple(R.Tensor((5, 5), dtype="float32")) = (lv4,)
                 R.output(gv)
             return gv
 
@@ -7963,32 +7892,31 @@ def test_cross_entropy():
         @R.function
         def main(x: R.Tensor((4, 3), dtype="float32")) -> R.Tuple(R.Tensor((), 
dtype="float32")):
             with R.dataflow():
-                lv: R.Tensor((4, 3), dtype="float32") = R.astype(x, 
dtype="float32")
-                lv1: R.Tensor((4, 3), dtype="float32") = R.nn.log_softmax(lv, 
axis=1)
-                lv2: R.Tensor((4,), dtype="bool") = R.not_equal(
+                lv: R.Tensor((4, 3), dtype="float32") = R.nn.log_softmax(x, 
axis=1)
+                lv1: R.Tensor((4,), dtype="bool") = R.not_equal(
                     R.const([0, 1, 2, 1], dtype="int64"), R.const(-100, 
"int64")
                 )
-                lv3: R.Tensor((), dtype="int64") = R.const(0, "int64")
-                lv4: R.Tensor((4,), dtype="int64") = R.where(
-                    lv2, R.const([0, 1, 2, 1], dtype="int64"), lv3
+                lv2: R.Tensor((), dtype="int64") = R.const(0, "int64")
+                lv3: R.Tensor((4,), dtype="int64") = R.where(
+                    lv1, R.const([0, 1, 2, 1], dtype="int64"), lv2
                 )
-                lv5: R.Tensor((4, 1), dtype="int64") = R.expand_dims(lv4, 
axis=[1])
-                lv6: R.Tensor((4, 1), dtype="float32") = 
R.gather_elements(lv1, lv5, axis=1)
-                lv7: R.Tensor((4,), dtype="float32") = R.squeeze(lv6, axis=[1])
-                lv8: R.Tensor((4,), dtype="float32") = R.negative(lv7)
-                lv9: R.Tensor((4,), dtype="bool") = R.not_equal(
+                lv4: R.Tensor((4, 1), dtype="int64") = R.expand_dims(lv3, 
axis=[1])
+                lv5: R.Tensor((4, 1), dtype="float32") = R.gather_elements(lv, 
lv4, axis=1)
+                lv6: R.Tensor((4,), dtype="float32") = R.squeeze(lv5, axis=[1])
+                lv7: R.Tensor((4,), dtype="float32") = R.negative(lv6)
+                lv8: R.Tensor((4,), dtype="bool") = R.not_equal(
                     R.const([0, 1, 2, 1], dtype="int64"), R.const(-100, 
"int64")
                 )
-                lv10: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
-                lv11: R.Tensor((4,), dtype="float32") = R.where(lv9, lv8, lv10)
-                lv12: R.Tensor((4,), dtype="bool") = R.not_equal(
+                lv9: R.Tensor((), dtype="float32") = R.const(0.0, "float32")
+                lv10: R.Tensor((4,), dtype="float32") = R.where(lv8, lv7, lv9)
+                lv11: R.Tensor((4,), dtype="bool") = R.not_equal(
                     R.const([0, 1, 2, 1], dtype="int64"), R.const(-100, 
"int64")
                 )
-                lv13: R.Tensor((), dtype="bool") = R.sum(lv12, axis=None, 
keepdims=False)
-                lv14: R.Tensor((), dtype="float32") = R.astype(lv13, 
dtype="float32")
-                lv15: R.Tensor((), dtype="float32") = R.sum(lv11, axis=None, 
keepdims=False)
-                lv16: R.Tensor((), dtype="float32") = R.divide(lv15, lv14)
-                gv: R.Tuple(R.Tensor((), dtype="float32")) = (lv16,)
+                lv12: R.Tensor((), dtype="bool") = R.sum(lv11, axis=None, 
keepdims=False)
+                lv13: R.Tensor((), dtype="float32") = R.astype(lv12, 
dtype="float32")
+                lv14: R.Tensor((), dtype="float32") = R.sum(lv10, axis=None, 
keepdims=False)
+                lv15: R.Tensor((), dtype="float32") = R.divide(lv14, lv13)
+                gv: R.Tuple(R.Tensor((), dtype="float32")) = (lv15,)
                 R.output(gv)
             return gv
 
@@ -8353,7 +8281,7 @@ def test_dynamic_shape_with_range_constraints():
             x1: R.Tensor(("s0", 4), dtype="float32"), x2: R.Tensor(("s0", 4), 
dtype="float32")
         ) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
             s0 = T.int64(is_size_var=True)
-            R.func_attr({"tir_var_lower_bound": {"s0": 1}, 
"tir_var_upper_bound": {"s0": 64}})
+            R.func_attr({"tir_var_lower_bound": {"s24": 1}, 
"tir_var_upper_bound": {"s24": 64}})
             with R.dataflow():
                 lv: R.Tensor((s0, 4), dtype="float32") = R.add(x1, x2)
                 gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
@@ -8389,8 +8317,8 @@ def test_dynamic_shape_with_addition_constraints():
             s0___1 = T.int64(is_size_var=True)
             R.func_attr(
                 {
-                    "tir_var_lower_bound": {"s0": 1, "s0___1": 2},
-                    "tir_var_upper_bound": {"s0": 64, "s0___1": 65},
+                    "tir_var_lower_bound": {"s77": 1, "s77___1": 2},
+                    "tir_var_upper_bound": {"s77": 64, "s77___1": 65},
                 }
             )
             with R.dataflow():
@@ -8417,19 +8345,19 @@ def test_dynamic_shape_with_subtraction_constraints():
     class Expected:
         @R.function
         def main(
-            x: R.Tensor(("s1___1", 4), dtype="float32"), y: R.Tensor(("s1", 
4), dtype="float32")
-        ) -> R.Tuple(R.Tensor(("s1___1 + s1", 4), dtype="float32")):
-            s1___1 = T.int64(is_size_var=True)
-            s1 = T.int64(is_size_var=True)
+            x: R.Tensor(("s0___1", 4), dtype="float32"), y: R.Tensor(("s0", 
4), dtype="float32")
+        ) -> R.Tuple(R.Tensor(("s0___1 + s0", 4), dtype="float32")):
+            s0___1 = T.int64(is_size_var=True)
+            s0 = T.int64(is_size_var=True)
             R.func_attr(
                 {
-                    "tir_var_lower_bound": {"s1": 0, "s1___1": 1},
-                    "tir_var_upper_bound": {"s1": 63, "s1___1": 64},
+                    "tir_var_lower_bound": {"s17": 0, "s17___1": 1},
+                    "tir_var_upper_bound": {"s17": 63, "s17___1": 64},
                 }
             )
             with R.dataflow():
-                lv: R.Tensor((s1___1 + s1, 4), dtype="float32") = R.concat((x, 
y), axis=0)
-                gv: R.Tuple(R.Tensor((s1___1 + s1, 4), dtype="float32")) = 
(lv,)
+                lv: R.Tensor((s0___1 + s0, 4), dtype="float32") = R.concat((x, 
y), axis=0)
+                gv: R.Tuple(R.Tensor((s0___1 + s0, 4), dtype="float32")) = 
(lv,)
                 R.output(gv)
             return gv
 
@@ -8457,8 +8385,8 @@ def test_dynamic_shape_with_multiplication_constraints():
             s0_2 = T.int64(is_size_var=True)
             R.func_attr(
                 {
-                    "tir_var_lower_bound": {"s0": 1, "s0_2": 2},
-                    "tir_var_upper_bound": {"s0": 64, "s0_2": 128},
+                    "tir_var_lower_bound": {"s77": 1, "s77_2": 2},
+                    "tir_var_upper_bound": {"s77": 64, "s77_2": 128},
                 }
             )
             with R.dataflow():
@@ -8488,7 +8416,7 @@ def test_dynamic_shape_with_unbounded_constraints():
             x: R.Tensor(("s0", 4), dtype="float32")
         ) -> R.Tuple(R.Tensor(("s0", 4), dtype="float32")):
             s0 = T.int64(is_size_var=True)
-            R.func_attr({"tir_var_lower_bound": {"s0": 2}})
+            R.func_attr({"tir_var_lower_bound": {"s77": 2}})
             with R.dataflow():
                 lv: R.Tensor((s0, 4), dtype="float32") = R.add(x, x)
                 gv: R.Tuple(R.Tensor((s0, 4), dtype="float32")) = (lv,)
@@ -8555,7 +8483,7 @@ def test_sym_size_int():
             x: R.Tensor(("s0", 3, 4), dtype="float32")
         ) -> R.Tuple(R.Tensor(("s0", 12), dtype="float32")):
             s0 = T.int64(is_size_var=True)
-            R.func_attr({"tir_var_lower_bound": {"s0": 0}})
+            R.func_attr({"tir_var_lower_bound": {"s77": 0}})
             with R.dataflow():
                 lv: R.Tensor((s0, 12), dtype="float32") = R.reshape(x, 
R.shape([s0, 12]))
                 gv: R.Tuple(R.Tensor((s0, 12), dtype="float32")) = (lv,)
@@ -8565,7 +8493,12 @@ def test_sym_size_int():
     example_args_2 = (torch.randn(2, 3, 4),)
     dynamic_shapes = {"x": {0: torch.export.Dim("dim")}}
     verify_model(
-        SymSizeIntDynamic(dim=0), example_args_2, {}, Expected2, 
dynamic_shapes=dynamic_shapes
+        SymSizeIntDynamic(dim=0),
+        example_args_2,
+        {},
+        Expected2,
+        dynamic_shapes=dynamic_shapes,
+        map_free_vars=True,
     )
 
 
diff --git a/tests/python/relax/test_frontend_onnx.py 
b/tests/python/relax/test_frontend_onnx.py
index 62af660a31..2cdf7e9b74 100644
--- a/tests/python/relax/test_frontend_onnx.py
+++ b/tests/python/relax/test_frontend_onnx.py
@@ -3536,6 +3536,7 @@ def test_nms():
     )
 
     model = helper.make_model(graph, producer_name="nms_test")
+    model.ir_version = 8
     model.opset_import[0].version = 11
 
     # Use deterministic random inputs for consistent testing
@@ -3700,6 +3701,7 @@ def test_nms_iou_suppression():
     )
 
     model = helper.make_model(graph, producer_name="nms_test_iou_suppression")
+    model.ir_version = 8
     model.opset_import[0].version = 11
 
     inputs = {
@@ -3794,6 +3796,7 @@ def test_nms_max_boxes_limit():
     )
 
     model = helper.make_model(graph, producer_name="nms_test_max_boxes_limit")
+    model.ir_version = 8
     model.opset_import[0].version = 11
 
     inputs = {
@@ -3885,6 +3888,7 @@ def test_nms_score_threshold():
     )
 
     model = helper.make_model(graph, producer_name="nms_test_score_threshold")
+    model.ir_version = 8
     model.opset_import[0].version = 11
 
     inputs = {
diff --git a/tests/scripts/task_python_unittest_gpuonly.sh 
b/tests/scripts/task_python_unittest_gpuonly.sh
index 3173bc9157..7c1d52a429 100755
--- a/tests/scripts/task_python_unittest_gpuonly.sh
+++ b/tests/scripts/task_python_unittest_gpuonly.sh
@@ -21,7 +21,8 @@ set -euxo pipefail
 export PYTEST_ADDOPTS="-m gpu ${PYTEST_ADDOPTS:-}"
 
 # Test most of the enabled runtimes here.
-export 
TVM_TEST_TARGETS='cuda;opencl;metal;rocm;nvptx;{"kind":"opencl","device":"mali"}'
+# TODO: disabled opencl tests due to segmentation fault. need to re-land 
"opencl" and "{"kind":"opencl","device":"mali"}"
+export TVM_TEST_TARGETS='cuda;metal;rocm;nvptx'
 export TVM_UNITTEST_TESTSUITE_NAME=python-unittest-gpu
 
 ./tests/scripts/task_python_unittest.sh
@@ -35,6 +36,8 @@ source tests/scripts/setup-pytest-env.sh
 
 run_pytest ${TVM_UNITTEST_TESTSUITE_NAME}-1 
tests/python/codegen/test_target_codegen_vulkan.py
 
+# TODO: disabled opencl tests due to segmentation fault
+exit 0
 
 # Adreno : A comprehensive Texture tests on Nvidia GPU and clml codegen tests.
 export PYTEST_ADDOPTS=""

Reply via email to