<!-- This model card has been generated automatically according to the information Keras had access to. You should probably proofread and complete it, then remove this comment. -->
pretrained-bert-uncased-200
This model is a fine-tuned version of on an unknown dataset. It achieves the following results on the evaluation set:
- Train Loss: nan
- Validation Loss: nan
- Epoch: 199
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- optimizer: {'name': 'Adam', 'learning_rate': 1e-04, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-07, 'amsgrad': False}
- training_precision: float32
Training results
| Train Loss | Validation Loss | Epoch |
|---|---|---|
| 8.9076 | 9.5544 | 0 |
| 7.0572 | 9.6310 | 1 |
| 6.5781 | 10.4973 | 2 |
| 6.1054 | 10.4749 | 3 |
| 6.1980 | 10.4411 | 4 |
| 6.0896 | 11.1385 | 5 |
| 6.1630 | 10.8668 | 6 |
| 5.9313 | 11.2520 | 7 |
| 5.7459 | 10.9396 | 8 |
| 5.8505 | 11.1343 | 9 |
| 5.8592 | 11.6048 | 10 |
| 5.7595 | 12.0371 | 11 |
| 5.7283 | 11.4402 | 12 |
| 5.7948 | 11.6117 | 13 |
| 5.7973 | 11.7393 | 14 |
| 5.6228 | 11.9450 | 15 |
| 5.6996 | 11.9938 | 16 |
| 5.7468 | 12.3826 | 17 |
| 5.6336 | 11.7692 | 18 |
| 5.6287 | 12.1970 | 19 |
| 5.7435 | 12.3895 | 20 |
| 5.6587 | 12.2124 | 21 |
| 5.6767 | 12.1633 | 22 |
| 5.7494 | 12.1844 | 23 |
| 5.5532 | 12.4163 | 24 |
| 5.4826 | 12.3235 | 25 |
| 5.7103 | 12.7326 | 26 |
| 5.6399 | 12.3326 | 27 |
| 5.6171 | 12.4726 | 28 |
| 5.8517 | 12.3647 | 29 |
| 5.6446 | 12.4943 | 30 |
| 5.5662 | 12.6303 | 31 |
| 5.8222 | 12.5869 | 32 |
| 5.5710 | 13.0406 | 33 |
| 5.6011 | 12.5007 | 34 |
| 5.6860 | 12.2958 | 35 |
| 5.6071 | 12.5690 | 36 |
| 5.5824 | 12.4472 | 37 |
| 5.5800 | 12.8570 | 38 |
| 5.6298 | 12.9604 | 39 |
| 5.4751 | 13.0937 | 40 |
| 5.5724 | 12.8909 | 41 |
| 5.6251 | 13.1132 | 42 |
| 5.5483 | 12.7036 | 43 |
| 5.6252 | 13.1233 | 44 |
| 5.4592 | 13.1353 | 45 |
| 5.5780 | 13.2373 | 46 |
| 5.5350 | 13.4289 | 47 |
| 5.4859 | 13.3994 | 48 |
| 5.6908 | 13.1062 | 49 |
| 5.7516 | 13.1705 | 50 |
| 5.5373 | 13.3196 | 51 |
| 5.6078 | 13.3352 | 52 |
| 5.5998 | 13.3831 | 53 |
| 5.6833 | 13.4430 | 54 |
| 5.6047 | 12.7287 | 55 |
| 5.7165 | 13.1647 | 56 |
| 5.5246 | 13.5831 | 57 |
| 5.5244 | 13.4733 | 58 |
| 5.5659 | 13.8621 | 59 |
| 5.6702 | 13.0873 | 60 |
| 5.5403 | 13.2744 | 61 |
| 5.4980 | 13.5826 | 62 |
| 5.5052 | 13.4584 | 63 |
| 5.5921 | 13.6191 | 64 |
| 5.5647 | 13.2221 | 65 |
| 5.6330 | 13.4804 | 66 |
| 5.6607 | 13.0722 | 67 |
| 5.7957 | 13.6183 | 68 |
| 5.7403 | 13.5204 | 69 |
| 5.5702 | 13.4229 | 70 |
| 5.4891 | 13.6547 | 71 |
| 5.7374 | 13.5464 | 72 |
| 5.6032 | 13.3607 | 73 |
| 5.5891 | 14.0467 | 74 |
| 5.7014 | 13.7621 | 75 |
| 5.6749 | 13.4568 | 76 |
| 5.6180 | 13.7552 | 77 |
| 5.6203 | 13.7563 | 78 |
| 5.6290 | 13.4801 | 79 |
| 5.6179 | 13.6345 | 80 |
| 5.5856 | 13.8037 | 81 |
| 5.6667 | 14.1205 | 82 |
| 5.5012 | 14.2115 | 83 |
| 5.6736 | 13.9032 | 84 |
| 5.6132 | 13.7493 | 85 |
| 5.6931 | 13.5402 | 86 |
| 5.4744 | 13.9974 | 87 |
| 5.6554 | 14.0855 | 88 |
| 5.5775 | 13.7100 | 89 |
| 5.6002 | 13.7944 | 90 |
| 5.6341 | 14.4328 | 91 |
| nan | nan | 92 |
| nan | nan | 93 |
| nan | nan | 94 |
| nan | nan | 95 |
| nan | nan | 96 |
| nan | nan | 97 |
| nan | nan | 98 |
| nan | nan | 99 |
| nan | nan | 100 |
| nan | nan | 101 |
| nan | nan | 102 |
| nan | nan | 103 |
| nan | nan | 104 |
| nan | nan | 105 |
| nan | nan | 106 |
| nan | nan | 107 |
| nan | nan | 108 |
| nan | nan | 109 |
| nan | nan | 110 |
| nan | nan | 111 |
| nan | nan | 112 |
| nan | nan | 113 |
| nan | nan | 114 |
| nan | nan | 115 |
| nan | nan | 116 |
| nan | nan | 117 |
| nan | nan | 118 |
| nan | nan | 119 |
| nan | nan | 120 |
| nan | nan | 121 |
| nan | nan | 122 |
| nan | nan | 123 |
| nan | nan | 124 |
| nan | nan | 125 |
| nan | nan | 126 |
| nan | nan | 127 |
| nan | nan | 128 |
| nan | nan | 129 |
| nan | nan | 130 |
| nan | nan | 131 |
| nan | nan | 132 |
| nan | nan | 133 |
| nan | nan | 134 |
| nan | nan | 135 |
| nan | nan | 136 |
| nan | nan | 137 |
| nan | nan | 138 |
| nan | nan | 139 |
| nan | nan | 140 |
| nan | nan | 141 |
| nan | nan | 142 |
| nan | nan | 143 |
| nan | nan | 144 |
| nan | nan | 145 |
| nan | nan | 146 |
| nan | nan | 147 |
| nan | nan | 148 |
| nan | nan | 149 |
| nan | nan | 150 |
| nan | nan | 151 |
| nan | nan | 152 |
| nan | nan | 153 |
| nan | nan | 154 |
| nan | nan | 155 |
| nan | nan | 156 |
| nan | nan | 157 |
| nan | nan | 158 |
| nan | nan | 159 |
| nan | nan | 160 |
| nan | nan | 161 |
| nan | nan | 162 |
| nan | nan | 163 |
| nan | nan | 164 |
| nan | nan | 165 |
| nan | nan | 166 |
| nan | nan | 167 |
| nan | nan | 168 |
| nan | nan | 169 |
| nan | nan | 170 |
| nan | nan | 171 |
| nan | nan | 172 |
| nan | nan | 173 |
| nan | nan | 174 |
| nan | nan | 175 |
| nan | nan | 176 |
| nan | nan | 177 |
| nan | nan | 178 |
| nan | nan | 179 |
| nan | nan | 180 |
| nan | nan | 181 |
| nan | nan | 182 |
| nan | nan | 183 |
| nan | nan | 184 |
| nan | nan | 185 |
| nan | nan | 186 |
| nan | nan | 187 |
| nan | nan | 188 |
| nan | nan | 189 |
| nan | nan | 190 |
| nan | nan | 191 |
| nan | nan | 192 |
| nan | nan | 193 |
| nan | nan | 194 |
| nan | nan | 195 |
| nan | nan | 196 |
| nan | nan | 197 |
| nan | nan | 198 |
| nan | nan | 199 |
Framework versions
- Transformers 4.27.0.dev0
- TensorFlow 2.9.2
- Datasets 2.9.0
- Tokenizers 0.13.2