SegFormer_b3
This model is a fine-tuned version of nvidia/segformer-b1-finetuned-cityscapes-1024-1024 on the Cityscapes dataset. It achieves the following results on the evaluation set:
- Loss: 0.2005
- Mean Iou: 0.3978
- Mean Accuracy: 0.4656
- Overall Accuracy: 0.8945
- Accuracy Unlabeled: nan
- Accuracy Ego vehicle: nan
- Accuracy Rectification border: nan
- Accuracy Out of roi: nan
- Accuracy Static: nan
- Accuracy Dynamic: nan
- Accuracy Ground: nan
- Accuracy Road: 0.9799
- Accuracy Sidewalk: 0.8107
- Accuracy Parking: nan
- Accuracy Rail track: nan
- Accuracy Building: 0.9339
- Accuracy Wall: 0.0010
- Accuracy Fence: 0.2453
- Accuracy Guard rail: nan
- Accuracy Bridge: nan
- Accuracy Tunnel: nan
- Accuracy Pole: 0.4987
- Accuracy Polegroup: nan
- Accuracy Traffic light: 0.5398
- Accuracy Traffic sign: 0.5906
- Accuracy Vegetation: 0.9314
- Accuracy Terrain: 0.5339
- Accuracy Sky: nan
- Accuracy Person: 0.7090
- Accuracy Rider: 0.0
- Accuracy Car: 0.9405
- Accuracy Truck: 0.0
- Accuracy Bus: 0.0
- Accuracy Caravan: nan
- Accuracy Trailer: nan
- Accuracy Train: 0.0
- Accuracy Motorcycle: 0.0
- Accuracy Bicycle: 0.6671
- Accuracy License plate: nan
- Iou Unlabeled: nan
- Iou Ego vehicle: nan
- Iou Rectification border: nan
- Iou Out of roi: nan
- Iou Static: nan
- Iou Dynamic: nan
- Iou Ground: nan
- Iou Road: 0.9529
- Iou Sidewalk: 0.6897
- Iou Parking: nan
- Iou Rail track: nan
- Iou Building: 0.7837
- Iou Wall: 0.0010
- Iou Fence: 0.2191
- Iou Guard rail: nan
- Iou Bridge: nan
- Iou Tunnel: nan
- Iou Pole: 0.3783
- Iou Polegroup: nan
- Iou Traffic light: 0.4123
- Iou Traffic sign: 0.5102
- Iou Vegetation: 0.8518
- Iou Terrain: 0.4632
- Iou Sky: nan
- Iou Person: 0.5619
- Iou Rider: 0.0
- Iou Car: 0.8270
- Iou Truck: 0.0
- Iou Bus: 0.0
- Iou Caravan: nan
- Iou Trailer: nan
- Iou Train: 0.0
- Iou Motorcycle: 0.0
- Iou Bicycle: 0.5085
- Iou License plate: nan
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0006
- train_batch_size: 2
- eval_batch_size: 2
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 8
- optimizer: Use adamw_torch with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 30
- mixed_precision_training: Native AMP
Training results
Training Loss | Epoch | Step | Validation Loss | Mean Iou | Mean Accuracy | Overall Accuracy | Accuracy Unlabeled | Accuracy Ego vehicle | Accuracy Rectification border | Accuracy Out of roi | Accuracy Static | Accuracy Dynamic | Accuracy Ground | Accuracy Road | Accuracy Sidewalk | Accuracy Parking | Accuracy Rail track | Accuracy Building | Accuracy Wall | Accuracy Fence | Accuracy Guard rail | Accuracy Bridge | Accuracy Tunnel | Accuracy Pole | Accuracy Polegroup | Accuracy Traffic light | Accuracy Traffic sign | Accuracy Vegetation | Accuracy Terrain | Accuracy Sky | Accuracy Person | Accuracy Rider | Accuracy Car | Accuracy Truck | Accuracy Bus | Accuracy Caravan | Accuracy Trailer | Accuracy Train | Accuracy Motorcycle | Accuracy Bicycle | Accuracy License plate | Iou Unlabeled | Iou Ego vehicle | Iou Rectification border | Iou Out of roi | Iou Static | Iou Dynamic | Iou Ground | Iou Road | Iou Sidewalk | Iou Parking | Iou Rail track | Iou Building | Iou Wall | Iou Fence | Iou Guard rail | Iou Bridge | Iou Tunnel | Iou Pole | Iou Polegroup | Iou Traffic light | Iou Traffic sign | Iou Vegetation | Iou Terrain | Iou Sky | Iou Person | Iou Rider | Iou Car | Iou Truck | Iou Bus | Iou Caravan | Iou Trailer | Iou Train | Iou Motorcycle | Iou Bicycle | Iou License plate |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
3.6819 | 1.3333 | 100 | 0.9097 | 0.1916 | 0.2569 | 0.8080 | nan | nan | nan | nan | nan | nan | nan | 0.8821 | 0.9677 | nan | nan | 0.8524 | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.9497 | 0.0136 | nan | 0.0 | 0.0 | 0.9592 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.8746 | 0.4414 | nan | nan | 0.7096 | 0.0 | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | 0.7285 | 0.0136 | nan | 0.0 | 0.0 | 0.6806 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | nan |
3.5168 | 2.6667 | 200 | 0.8720 | 0.2888 | 0.3680 | 0.8630 | nan | nan | nan | nan | nan | nan | nan | 0.9708 | 0.8932 | nan | nan | 0.8868 | 0.0 | 0.0 | nan | nan | nan | 0.1774 | nan | 0.0 | 0.5643 | 0.9552 | 0.6478 | nan | 0.0595 | 0.0 | 0.9307 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.5380 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9471 | 0.6558 | nan | nan | 0.7944 | 0.0 | 0.0 | nan | nan | nan | 0.0831 | nan | 0.0 | 0.3769 | 0.7971 | 0.3345 | nan | 0.0592 | 0.0 | 0.7911 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.3599 | nan |
3.3612 | 4.0 | 300 | 0.8334 | 0.3763 | 0.4903 | 0.8702 | nan | nan | nan | nan | nan | nan | nan | 0.9601 | 0.8312 | nan | nan | 0.8265 | 0.1725 | 0.5157 | nan | nan | nan | 0.6467 | nan | 0.5563 | 0.6298 | 0.9128 | 0.4616 | nan | 0.8358 | 0.0 | 0.9139 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.5616 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9478 | 0.6524 | nan | nan | 0.7465 | 0.1284 | 0.2961 | nan | nan | nan | 0.2945 | nan | 0.2809 | 0.4369 | 0.8234 | 0.3469 | nan | 0.5131 | 0.0 | 0.8322 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.4733 | nan |
3.2937 | 5.3333 | 400 | 0.8253 | 0.3850 | 0.4920 | 0.8821 | nan | nan | nan | nan | nan | nan | nan | 0.9746 | 0.7559 | nan | nan | 0.9173 | 0.2725 | 0.4995 | nan | nan | nan | 0.4240 | nan | 0.5192 | 0.5974 | 0.8877 | 0.4622 | nan | 0.6364 | 0.2025 | 0.9565 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.7504 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9401 | 0.6195 | nan | nan | 0.8095 | 0.2138 | 0.2816 | nan | nan | nan | 0.3319 | nan | 0.3291 | 0.4741 | 0.8330 | 0.3227 | nan | 0.5108 | 0.0834 | 0.7902 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.3900 | nan |
3.431 | 6.6667 | 500 | 0.8247 | 0.3945 | 0.5105 | 0.8820 | nan | nan | nan | nan | nan | nan | nan | 0.9640 | 0.7894 | nan | nan | 0.8835 | 0.4637 | 0.5429 | nan | nan | nan | 0.4049 | nan | 0.4102 | 0.5474 | 0.9152 | 0.6722 | nan | 0.8082 | 0.1119 | 0.9502 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0001 | 0.7252 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9509 | 0.6575 | nan | nan | 0.8100 | 0.2296 | 0.2290 | nan | nan | nan | 0.3135 | nan | 0.3120 | 0.4647 | 0.8335 | 0.4121 | nan | 0.5200 | 0.0838 | 0.7982 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0001 | 0.4857 | nan |
3.3843 | 8.0 | 600 | 0.8209 | 0.4022 | 0.5317 | 0.8772 | nan | nan | nan | nan | nan | nan | nan | 0.9641 | 0.8445 | nan | nan | 0.8527 | 0.5229 | 0.3995 | nan | nan | nan | 0.5189 | nan | 0.5287 | 0.6258 | 0.9159 | 0.5684 | nan | 0.7938 | 0.2234 | 0.8978 | 0.0 | 0.0 | nan | nan | 0.0 | 0.1760 | 0.7375 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9459 | 0.6402 | nan | nan | 0.7783 | 0.2110 | 0.2458 | nan | nan | nan | 0.3486 | nan | 0.3414 | 0.3898 | 0.8342 | 0.3566 | nan | 0.5556 | 0.1658 | 0.8100 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0988 | 0.5177 | nan |
3.3182 | 9.3333 | 700 | 0.8220 | 0.3985 | 0.5052 | 0.8785 | nan | nan | nan | nan | nan | nan | nan | 0.9733 | 0.7402 | nan | nan | 0.9542 | 0.5008 | 0.1732 | nan | nan | nan | 0.4701 | nan | 0.5893 | 0.5403 | 0.8605 | 0.5030 | nan | 0.5798 | 0.4709 | 0.9061 | 0.0 | 0.0009 | nan | nan | 0.0 | 0.1806 | 0.6511 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9451 | 0.6274 | nan | nan | 0.7736 | 0.2133 | 0.1386 | nan | nan | nan | 0.3440 | nan | 0.3535 | 0.4812 | 0.8217 | 0.3869 | nan | 0.4984 | 0.2059 | 0.8303 | 0.0 | 0.0009 | nan | nan | 0.0 | 0.1124 | 0.4407 | nan |
3.3125 | 10.6667 | 800 | 0.8112 | 0.4382 | 0.5617 | 0.8918 | nan | nan | nan | nan | nan | nan | nan | 0.9826 | 0.7279 | nan | nan | 0.9156 | 0.4140 | 0.3158 | nan | nan | nan | 0.4967 | nan | 0.5814 | 0.6258 | 0.9157 | 0.4678 | nan | 0.7503 | 0.2826 | 0.9170 | 0.0 | 0.7746 | nan | nan | 0.0 | 0.2892 | 0.6542 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9465 | 0.6321 | nan | nan | 0.8218 | 0.2656 | 0.2318 | nan | nan | nan | 0.3616 | nan | 0.3687 | 0.5101 | 0.8457 | 0.3502 | nan | 0.5828 | 0.1900 | 0.8452 | 0.0 | 0.2774 | nan | nan | 0.0 | 0.1888 | 0.4696 | nan |
3.2327 | 12.0 | 900 | 0.8133 | 0.4324 | 0.5705 | 0.8916 | nan | nan | nan | nan | nan | nan | nan | 0.9786 | 0.7767 | nan | nan | 0.9054 | 0.4437 | 0.4810 | nan | nan | nan | 0.4592 | nan | 0.5330 | 0.5706 | 0.9423 | 0.4758 | nan | 0.5410 | 0.5342 | 0.9070 | 0.0001 | 0.5615 | nan | nan | 0.0 | 0.3271 | 0.8319 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9527 | 0.6790 | nan | nan | 0.8201 | 0.2626 | 0.2969 | nan | nan | nan | 0.3529 | nan | 0.3645 | 0.5033 | 0.8486 | 0.4007 | nan | 0.4813 | 0.1780 | 0.8190 | 0.0000 | 0.2336 | nan | nan | 0.0 | 0.1436 | 0.4468 | nan |
3.2772 | 13.3333 | 1000 | 0.8118 | 0.4461 | 0.5848 | 0.8900 | nan | nan | nan | nan | nan | nan | nan | 0.9675 | 0.8022 | nan | nan | 0.9057 | 0.4430 | 0.3203 | nan | nan | nan | 0.5423 | nan | 0.5617 | 0.5703 | 0.9277 | 0.4807 | nan | 0.7258 | 0.3603 | 0.8927 | 0.0017 | 0.8502 | nan | nan | 0.0 | 0.4148 | 0.7587 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9486 | 0.6491 | nan | nan | 0.8153 | 0.2935 | 0.2347 | nan | nan | nan | 0.3722 | nan | 0.3910 | 0.4541 | 0.8485 | 0.3527 | nan | 0.5648 | 0.2529 | 0.8409 | 0.0015 | 0.2668 | nan | nan | 0.0 | 0.2401 | 0.5032 | nan |
3.2655 | 14.6667 | 1100 | 0.8134 | 0.4439 | 0.5657 | 0.8912 | nan | nan | nan | nan | nan | nan | nan | 0.9790 | 0.6983 | nan | nan | 0.9361 | 0.4543 | 0.1532 | nan | nan | nan | 0.4737 | nan | 0.4873 | 0.6551 | 0.9270 | 0.5869 | nan | 0.6551 | 0.4939 | 0.9260 | 0.0390 | 0.5783 | nan | nan | 0.0 | 0.5178 | 0.6208 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9466 | 0.6239 | nan | nan | 0.8147 | 0.3047 | 0.1252 | nan | nan | nan | 0.3603 | nan | 0.3455 | 0.5015 | 0.8533 | 0.4609 | nan | 0.5469 | 0.2600 | 0.8242 | 0.0258 | 0.2700 | nan | nan | 0.0 | 0.2401 | 0.4863 | nan |
3.2841 | 16.0 | 1200 | 0.8083 | 0.4463 | 0.5656 | 0.8928 | nan | nan | nan | nan | nan | nan | nan | 0.9794 | 0.7238 | nan | nan | 0.9171 | 0.2941 | 0.4156 | nan | nan | nan | 0.5504 | nan | 0.4989 | 0.5591 | 0.9202 | 0.5055 | nan | 0.7092 | 0.4410 | 0.9395 | 0.0169 | 0.5307 | nan | nan | 0.0 | 0.4149 | 0.7651 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9494 | 0.6429 | nan | nan | 0.8227 | 0.2275 | 0.2485 | nan | nan | nan | 0.3844 | nan | 0.3722 | 0.4937 | 0.8490 | 0.4041 | nan | 0.5726 | 0.2636 | 0.8250 | 0.0150 | 0.2424 | nan | nan | 0.0 | 0.2208 | 0.4995 | nan |
3.1519 | 17.3333 | 1300 | 0.8058 | 0.4663 | 0.5814 | 0.9007 | nan | nan | nan | nan | nan | nan | nan | 0.9814 | 0.7657 | nan | nan | 0.9227 | 0.4211 | 0.4617 | nan | nan | nan | 0.5054 | nan | 0.5578 | 0.5573 | 0.9293 | 0.5936 | nan | 0.7432 | 0.4163 | 0.9427 | 0.0927 | 0.4866 | nan | nan | 0.0 | 0.3694 | 0.7185 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9553 | 0.6833 | nan | nan | 0.8361 | 0.2555 | 0.3345 | nan | nan | nan | 0.3743 | nan | 0.3935 | 0.4795 | 0.8537 | 0.4020 | nan | 0.5869 | 0.2941 | 0.8247 | 0.0773 | 0.2855 | nan | nan | 0.0 | 0.2297 | 0.5272 | nan |
3.1031 | 18.6667 | 1400 | 0.8049 | 0.4777 | 0.5844 | 0.9010 | nan | nan | nan | nan | nan | nan | nan | 0.9722 | 0.8071 | nan | nan | 0.9325 | 0.6270 | 0.2349 | nan | nan | nan | 0.5282 | nan | 0.5145 | 0.5929 | 0.9352 | 0.5315 | nan | 0.7478 | 0.2931 | 0.9271 | 0.3230 | 0.5858 | nan | nan | 0.0 | 0.3171 | 0.6497 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9538 | 0.6760 | nan | nan | 0.8228 | 0.3377 | 0.1927 | nan | nan | nan | 0.3939 | nan | 0.3957 | 0.5162 | 0.8635 | 0.4307 | nan | 0.5945 | 0.2419 | 0.8541 | 0.2123 | 0.3833 | nan | nan | 0.0 | 0.2205 | 0.5101 | nan |
3.3333 | 20.0 | 1500 | 0.8054 | 0.4811 | 0.6115 | 0.8993 | nan | nan | nan | nan | nan | nan | nan | 0.9740 | 0.7904 | nan | nan | 0.9272 | 0.5676 | 0.2824 | nan | nan | nan | 0.5457 | nan | 0.6234 | 0.6561 | 0.9349 | 0.5165 | nan | 0.6369 | 0.5465 | 0.9158 | 0.3922 | 0.6308 | nan | nan | 0.0 | 0.3288 | 0.7371 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9563 | 0.6802 | nan | nan | 0.8143 | 0.3653 | 0.2124 | nan | nan | nan | 0.3904 | nan | 0.4002 | 0.5414 | 0.8629 | 0.4470 | nan | 0.5301 | 0.2112 | 0.8527 | 0.2724 | 0.3989 | nan | nan | 0.0 | 0.2117 | 0.5119 | nan |
3.2362 | 21.3333 | 1600 | 0.7991 | 0.5111 | 0.6532 | 0.9070 | nan | nan | nan | nan | nan | nan | nan | 0.9774 | 0.8026 | nan | nan | 0.9248 | 0.5749 | 0.3866 | nan | nan | nan | 0.5371 | nan | 0.5863 | 0.6434 | 0.9322 | 0.6463 | nan | 0.7627 | 0.5056 | 0.9236 | 0.6663 | 0.8069 | nan | nan | 0.0 | 0.3910 | 0.6892 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9594 | 0.7125 | nan | nan | 0.8367 | 0.3918 | 0.3015 | nan | nan | nan | 0.3901 | nan | 0.4282 | 0.5436 | 0.8612 | 0.4851 | nan | 0.6028 | 0.2690 | 0.8571 | 0.3622 | 0.3994 | nan | nan | 0.0 | 0.2828 | 0.5153 | nan |
3.1479 | 22.6667 | 1700 | 0.7992 | 0.5170 | 0.6476 | 0.9075 | nan | nan | nan | nan | nan | nan | nan | 0.9795 | 0.7672 | nan | nan | 0.9306 | 0.4524 | 0.4345 | nan | nan | nan | 0.5213 | nan | 0.6093 | 0.6431 | 0.9351 | 0.6041 | nan | 0.7803 | 0.4262 | 0.9326 | 0.7119 | 0.6591 | nan | nan | 0.0 | 0.4828 | 0.7877 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9557 | 0.6830 | nan | nan | 0.8324 | 0.3471 | 0.3533 | nan | nan | nan | 0.3993 | nan | 0.4305 | 0.5529 | 0.8670 | 0.4730 | nan | 0.6137 | 0.2879 | 0.8525 | 0.3981 | 0.4231 | nan | nan | 0.0 | 0.3000 | 0.5371 | nan |
3.1489 | 24.0 | 1800 | 0.7998 | 0.5173 | 0.6436 | 0.9081 | nan | nan | nan | nan | nan | nan | nan | 0.9784 | 0.8081 | nan | nan | 0.9230 | 0.5567 | 0.4600 | nan | nan | nan | 0.5262 | nan | 0.5991 | 0.6540 | 0.9431 | 0.5327 | nan | 0.7243 | 0.4144 | 0.9283 | 0.6236 | 0.7156 | nan | nan | 0.0 | 0.4618 | 0.7360 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9599 | 0.7100 | nan | nan | 0.8320 | 0.4076 | 0.3320 | nan | nan | nan | 0.3948 | nan | 0.4360 | 0.5497 | 0.8660 | 0.4444 | nan | 0.5999 | 0.3002 | 0.8548 | 0.3613 | 0.3867 | nan | nan | 0.0 | 0.3235 | 0.5534 | nan |
3.1682 | 25.3333 | 1900 | 0.7934 | 0.5162 | 0.6289 | 0.9098 | nan | nan | nan | nan | nan | nan | nan | 0.9806 | 0.8194 | nan | nan | 0.9214 | 0.5199 | 0.4103 | nan | nan | nan | 0.5419 | nan | 0.6013 | 0.6294 | 0.9476 | 0.5769 | nan | 0.7706 | 0.4091 | 0.9344 | 0.5272 | 0.5265 | nan | nan | 0.0 | 0.4416 | 0.7617 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9611 | 0.7184 | nan | nan | 0.8347 | 0.4072 | 0.3174 | nan | nan | nan | 0.3991 | nan | 0.4310 | 0.5486 | 0.8625 | 0.4611 | nan | 0.6253 | 0.2987 | 0.8488 | 0.3765 | 0.3712 | nan | nan | 0.0 | 0.2830 | 0.5464 | nan |
0.78 | 26.6667 | 2000 | 0.2157 | 0.3595 | 0.4159 | 0.8783 | nan | nan | nan | nan | nan | nan | nan | 0.9785 | 0.7979 | nan | nan | 0.9516 | 0.0 | 0.0343 | nan | nan | nan | 0.4658 | nan | 0.4259 | 0.5335 | 0.8972 | 0.5503 | nan | 0.4089 | 0.0 | 0.9063 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.5356 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9412 | 0.6504 | nan | nan | 0.7485 | 0.0 | 0.0341 | nan | nan | nan | 0.3506 | nan | 0.3703 | 0.4682 | 0.8372 | 0.4311 | nan | 0.3803 | 0.0 | 0.7895 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.4696 | nan |
0.8695 | 28.0 | 2100 | 0.2042 | 0.3952 | 0.4621 | 0.8932 | nan | nan | nan | nan | nan | nan | nan | 0.9799 | 0.8181 | nan | nan | 0.9340 | 0.0009 | 0.3852 | nan | nan | nan | 0.4783 | nan | 0.4604 | 0.5427 | 0.9258 | 0.5914 | nan | 0.6337 | 0.0 | 0.9350 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.6333 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9504 | 0.6841 | nan | nan | 0.7884 | 0.0009 | 0.3059 | nan | nan | nan | 0.3685 | nan | 0.3815 | 0.4831 | 0.8517 | 0.4688 | nan | 0.5246 | 0.0 | 0.8075 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.4978 | nan |
0.6709 | 29.3333 | 2200 | 0.2005 | 0.3978 | 0.4656 | 0.8945 | nan | nan | nan | nan | nan | nan | nan | 0.9799 | 0.8107 | nan | nan | 0.9339 | 0.0010 | 0.2453 | nan | nan | nan | 0.4987 | nan | 0.5398 | 0.5906 | 0.9314 | 0.5339 | nan | 0.7090 | 0.0 | 0.9405 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.6671 | nan | nan | nan | nan | nan | nan | nan | nan | 0.9529 | 0.6897 | nan | nan | 0.7837 | 0.0010 | 0.2191 | nan | nan | nan | 0.3783 | nan | 0.4123 | 0.5102 | 0.8518 | 0.4632 | nan | 0.5619 | 0.0 | 0.8270 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.5085 | nan |
Framework versions
- Transformers 4.47.1
- Pytorch 2.5.1+cu121
- Datasets 3.2.0
- Tokenizers 0.21.0
- Downloads last month
- 325
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.