26
26
runs-on : ${{ matrix.runs-on }}
27
27
base-image : ${{ matrix.base-image }}
28
28
backend : ${{ matrix.backend }}
29
- latest-image : ${{ matrix.latest-image }}
30
29
dockerfile : $${ matrix.dockerfile }}
31
30
context : $${ matrix.context }}
32
31
secrets :
49
48
runs-on : ' ubuntu-latest'
50
49
base-image : " ubuntu:22.04"
51
50
backend : " rerankers"
52
- latest-image : ' latest-gpu-nvidia-cuda-11-rerankers'
53
51
dockerfile : " ./backend/Dockerfile.python"
54
52
context : " ./backend"
55
53
- build-type : ' cublas'
61
59
runs-on : ' ubuntu-latest'
62
60
base-image : " ubuntu:22.04"
63
61
backend : " vllm"
64
- latest-image : ' latest-gpu-nvidia-cuda-11-vllm'
65
62
dockerfile : " ./backend/Dockerfile.python"
66
63
context : " ./backend"
67
64
- build-type : ' cublas'
73
70
runs-on : ' ubuntu-latest'
74
71
base-image : " ubuntu:22.04"
75
72
backend : " transformers"
76
- latest-image : ' latest-gpu-nvidia-cuda-11-transformers'
77
73
dockerfile : " ./backend/Dockerfile.python"
78
74
context : " ./backend"
79
75
- build-type : ' cublas'
85
81
runs-on : ' ubuntu-latest'
86
82
base-image : " ubuntu:22.04"
87
83
backend : " diffusers"
88
- latest-image : ' latest-gpu-nvidia-cuda-11-diffusers'
89
84
dockerfile : " ./backend/Dockerfile.python"
90
85
context : " ./backend"
91
86
# CUDA 11 additional backends
98
93
runs-on : ' ubuntu-latest'
99
94
base-image : " ubuntu:22.04"
100
95
backend : " kokoro"
101
- latest-image : ' latest-gpu-nvidia-cuda-11-kokoro'
102
96
dockerfile : " ./backend/Dockerfile.python"
103
97
context : " ./backend"
104
98
- build-type : ' cublas'
@@ -110,7 +104,6 @@ jobs:
110
104
runs-on : ' ubuntu-latest'
111
105
base-image : " ubuntu:22.04"
112
106
backend : " faster-whisper"
113
- latest-image : ' latest-gpu-nvidia-cuda-11-faster-whisper'
114
107
dockerfile : " ./backend/Dockerfile.python"
115
108
context : " ./backend"
116
109
- build-type : ' cublas'
@@ -122,7 +115,6 @@ jobs:
122
115
runs-on : ' ubuntu-latest'
123
116
base-image : " ubuntu:22.04"
124
117
backend : " coqui"
125
- latest-image : ' latest-gpu-nvidia-cuda-11-coqui'
126
118
dockerfile : " ./backend/Dockerfile.python"
127
119
context : " ./backend"
128
120
- build-type : ' cublas'
@@ -134,7 +126,6 @@ jobs:
134
126
runs-on : ' ubuntu-latest'
135
127
base-image : " ubuntu:22.04"
136
128
backend : " bark"
137
- latest-image : ' latest-gpu-nvidia-cuda-11-bark'
138
129
dockerfile : " ./backend/Dockerfile.python"
139
130
context : " ./backend"
140
131
- build-type : ' cublas'
@@ -146,7 +137,6 @@ jobs:
146
137
runs-on : ' ubuntu-latest'
147
138
base-image : " ubuntu:22.04"
148
139
backend : " chatterbox"
149
- latest-image : ' latest-gpu-nvidia-cuda-11-chatterbox'
150
140
dockerfile : " ./backend/Dockerfile.python"
151
141
context : " ./backend"
152
142
# CUDA 12 builds
@@ -159,7 +149,6 @@ jobs:
159
149
runs-on : ' ubuntu-latest'
160
150
base-image : " ubuntu:22.04"
161
151
backend : " rerankers"
162
- latest-image : ' latest-gpu-nvidia-cuda-12-rerankers'
163
152
dockerfile : " ./backend/Dockerfile.python"
164
153
context : " ./backend"
165
154
- build-type : ' cublas'
@@ -171,7 +160,6 @@ jobs:
171
160
runs-on : ' ubuntu-latest'
172
161
base-image : " ubuntu:22.04"
173
162
backend : " vllm"
174
- latest-image : ' latest-gpu-nvidia-cuda-12-vllm'
175
163
dockerfile : " ./backend/Dockerfile.python"
176
164
context : " ./backend"
177
165
- build-type : ' cublas'
@@ -183,7 +171,6 @@ jobs:
183
171
runs-on : ' ubuntu-latest'
184
172
base-image : " ubuntu:22.04"
185
173
backend : " transformers"
186
- latest-image : ' latest-gpu-nvidia-cuda-12-transformers'
187
174
dockerfile : " ./backend/Dockerfile.python"
188
175
context : " ./backend"
189
176
- build-type : ' cublas'
@@ -194,8 +181,7 @@ jobs:
194
181
tag-suffix : ' -gpu-nvidia-cuda-12-diffusers'
195
182
runs-on : ' ubuntu-latest'
196
183
base-image : " ubuntu:22.04"
197
- backend : " diffusers"
198
- latest-image : ' latest-gpu-nvidia-cuda-12-diffusers'
184
+ backend : " diffusers"
199
185
dockerfile : " ./backend/Dockerfile.python"
200
186
context : " ./backend"
201
187
# CUDA 12 additional backends
@@ -208,7 +194,6 @@ jobs:
208
194
runs-on : ' ubuntu-latest'
209
195
base-image : " ubuntu:22.04"
210
196
backend : " kokoro"
211
- latest-image : ' latest-gpu-nvidia-cuda-12-kokoro'
212
197
dockerfile : " ./backend/Dockerfile.python"
213
198
context : " ./backend"
214
199
- build-type : ' cublas'
@@ -220,7 +205,6 @@ jobs:
220
205
runs-on : ' ubuntu-latest'
221
206
base-image : " ubuntu:22.04"
222
207
backend : " faster-whisper"
223
- latest-image : ' latest-gpu-nvidia-cuda-12-faster-whisper'
224
208
dockerfile : " ./backend/Dockerfile.python"
225
209
context : " ./backend"
226
210
- build-type : ' cublas'
@@ -232,7 +216,6 @@ jobs:
232
216
runs-on : ' ubuntu-latest'
233
217
base-image : " ubuntu:22.04"
234
218
backend : " coqui"
235
- latest-image : ' latest-gpu-nvidia-cuda-12-coqui'
236
219
dockerfile : " ./backend/Dockerfile.python"
237
220
context : " ./backend"
238
221
- build-type : ' cublas'
@@ -244,7 +227,6 @@ jobs:
244
227
runs-on : ' ubuntu-latest'
245
228
base-image : " ubuntu:22.04"
246
229
backend : " bark"
247
- latest-image : ' latest-gpu-nvidia-cuda-12-bark'
248
230
dockerfile : " ./backend/Dockerfile.python"
249
231
context : " ./backend"
250
232
- build-type : ' cublas'
@@ -256,7 +238,6 @@ jobs:
256
238
runs-on : ' ubuntu-latest'
257
239
base-image : " ubuntu:22.04"
258
240
backend : " chatterbox"
259
- latest-image : ' latest-gpu-nvidia-cuda-12-chatterbox'
260
241
dockerfile : " ./backend/Dockerfile.python"
261
242
context : " ./backend"
262
243
# hipblas builds
@@ -269,7 +250,6 @@ jobs:
269
250
runs-on : ' ubuntu-latest'
270
251
base-image : " rocm/dev-ubuntu-22.04:6.1"
271
252
backend : " rerankers"
272
- latest-image : ' latest-gpu-rocm-hipblas-rerankers'
273
253
dockerfile : " ./backend/Dockerfile.python"
274
254
context : " ./backend"
275
255
- build-type : ' hipblas'
@@ -281,7 +261,6 @@ jobs:
281
261
runs-on : ' ubuntu-latest'
282
262
base-image : " rocm/dev-ubuntu-22.04:6.1"
283
263
backend : " vllm"
284
- latest-image : ' latest-gpu-rocm-hipblas-vllm'
285
264
dockerfile : " ./backend/Dockerfile.python"
286
265
context : " ./backend"
287
266
- build-type : ' hipblas'
@@ -293,7 +272,6 @@ jobs:
293
272
runs-on : ' ubuntu-latest'
294
273
base-image : " rocm/dev-ubuntu-22.04:6.1"
295
274
backend : " transformers"
296
- latest-image : ' latest-gpu-rocm-hipblas-transformers'
297
275
dockerfile : " ./backend/Dockerfile.python"
298
276
context : " ./backend"
299
277
- build-type : ' hipblas'
@@ -305,7 +283,6 @@ jobs:
305
283
runs-on : ' ubuntu-latest'
306
284
base-image : " rocm/dev-ubuntu-22.04:6.1"
307
285
backend : " diffusers"
308
- latest-image : ' latest-gpu-rocm-hipblas-diffusers'
309
286
dockerfile : " ./backend/Dockerfile.python"
310
287
context : " ./backend"
311
288
# ROCm additional backends
@@ -318,7 +295,6 @@ jobs:
318
295
runs-on : ' ubuntu-latest'
319
296
base-image : " rocm/dev-ubuntu-22.04:6.1"
320
297
backend : " kokoro"
321
- latest-image : ' latest-gpu-rocm-hipblas-kokoro'
322
298
dockerfile : " ./backend/Dockerfile.python"
323
299
context : " ./backend"
324
300
- build-type : ' hipblas'
@@ -330,7 +306,6 @@ jobs:
330
306
runs-on : ' ubuntu-latest'
331
307
base-image : " rocm/dev-ubuntu-22.04:6.1"
332
308
backend : " faster-whisper"
333
- latest-image : ' latest-gpu-rocm-hipblas-faster-whisper'
334
309
dockerfile : " ./backend/Dockerfile.python"
335
310
context : " ./backend"
336
311
- build-type : ' hipblas'
@@ -342,7 +317,6 @@ jobs:
342
317
runs-on : ' ubuntu-latest'
343
318
base-image : " rocm/dev-ubuntu-22.04:6.1"
344
319
backend : " coqui"
345
- latest-image : ' latest-gpu-rocm-hipblas-coqui'
346
320
dockerfile : " ./backend/Dockerfile.python"
347
321
context : " ./backend"
348
322
- build-type : ' hipblas'
@@ -354,7 +328,6 @@ jobs:
354
328
runs-on : ' ubuntu-latest'
355
329
base-image : " rocm/dev-ubuntu-22.04:6.1"
356
330
backend : " bark"
357
- latest-image : ' latest-gpu-rocm-hipblas-bark'
358
331
dockerfile : " ./backend/Dockerfile.python"
359
332
context : " ./backend"
360
333
# sycl builds
@@ -367,7 +340,6 @@ jobs:
367
340
runs-on : ' ubuntu-latest'
368
341
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
369
342
backend : " rerankers"
370
- latest-image : ' latest-gpu-intel-sycl-f32-rerankers'
371
343
dockerfile : " ./backend/Dockerfile.python"
372
344
context : " ./backend"
373
345
- build-type : ' sycl_f16'
@@ -379,7 +351,6 @@ jobs:
379
351
runs-on : ' ubuntu-latest'
380
352
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
381
353
backend : " rerankers"
382
- latest-image : ' latest-gpu-intel-sycl-f16-rerankers'
383
354
dockerfile : " ./backend/Dockerfile.python"
384
355
context : " ./backend"
385
356
- build-type : ' sycl_f32'
@@ -391,7 +362,6 @@ jobs:
391
362
runs-on : ' ubuntu-latest'
392
363
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
393
364
backend : " vllm"
394
- latest-image : ' latest-gpu-intel-sycl-f32-vllm'
395
365
dockerfile : " ./backend/Dockerfile.python"
396
366
context : " ./backend"
397
367
- build-type : ' sycl_f16'
@@ -403,7 +373,6 @@ jobs:
403
373
runs-on : ' ubuntu-latest'
404
374
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
405
375
backend : " vllm"
406
- latest-image : ' latest-gpu-intel-sycl-f16-vllm'
407
376
dockerfile : " ./backend/Dockerfile.python"
408
377
context : " ./backend"
409
378
- build-type : ' sycl_f32'
@@ -415,7 +384,6 @@ jobs:
415
384
runs-on : ' ubuntu-latest'
416
385
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
417
386
backend : " transformers"
418
- latest-image : ' latest-gpu-intel-sycl-f32-transformers'
419
387
dockerfile : " ./backend/Dockerfile.python"
420
388
context : " ./backend"
421
389
- build-type : ' sycl_f16'
@@ -427,7 +395,6 @@ jobs:
427
395
runs-on : ' ubuntu-latest'
428
396
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
429
397
backend : " transformers"
430
- latest-image : ' latest-gpu-intel-sycl-f16-transformers'
431
398
dockerfile : " ./backend/Dockerfile.python"
432
399
context : " ./backend"
433
400
- build-type : ' sycl_f32'
@@ -439,7 +406,6 @@ jobs:
439
406
runs-on : ' ubuntu-latest'
440
407
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
441
408
backend : " diffusers"
442
- latest-image : ' latest-gpu-intel-sycl-f32-diffusers'
443
409
dockerfile : " ./backend/Dockerfile.python"
444
410
context : " ./backend"
445
411
# SYCL additional backends
@@ -452,7 +418,6 @@ jobs:
452
418
runs-on : ' ubuntu-latest'
453
419
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
454
420
backend : " kokoro"
455
- latest-image : ' latest-gpu-intel-sycl-f32-kokoro'
456
421
dockerfile : " ./backend/Dockerfile.python"
457
422
context : " ./backend"
458
423
- build-type : ' sycl_f16'
@@ -464,7 +429,6 @@ jobs:
464
429
runs-on : ' ubuntu-latest'
465
430
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
466
431
backend : " kokoro"
467
- latest-image : ' latest-gpu-intel-sycl-f16-kokoro'
468
432
dockerfile : " ./backend/Dockerfile.python"
469
433
context : " ./backend"
470
434
- build-type : ' sycl_f32'
@@ -476,7 +440,6 @@ jobs:
476
440
runs-on : ' ubuntu-latest'
477
441
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
478
442
backend : " faster-whisper"
479
- latest-image : ' latest-gpu-intel-sycl-f32-faster-whisper'
480
443
dockerfile : " ./backend/Dockerfile.python"
481
444
context : " ./backend"
482
445
- build-type : ' sycl_f16'
@@ -488,7 +451,6 @@ jobs:
488
451
runs-on : ' ubuntu-latest'
489
452
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
490
453
backend : " faster-whisper"
491
- latest-image : ' latest-gpu-intel-sycl-f16-faster-whisper'
492
454
dockerfile : " ./backend/Dockerfile.python"
493
455
context : " ./backend"
494
456
- build-type : ' sycl_f32'
@@ -500,7 +462,6 @@ jobs:
500
462
runs-on : ' ubuntu-latest'
501
463
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
502
464
backend : " coqui"
503
- latest-image : ' latest-gpu-intel-sycl-f32-coqui'
504
465
dockerfile : " ./backend/Dockerfile.python"
505
466
context : " ./backend"
506
467
- build-type : ' sycl_f16'
@@ -512,7 +473,6 @@ jobs:
512
473
runs-on : ' ubuntu-latest'
513
474
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
514
475
backend : " coqui"
515
- latest-image : ' latest-gpu-intel-sycl-f16-coqui'
516
476
dockerfile : " ./backend/Dockerfile.python"
517
477
context : " ./backend"
518
478
- build-type : ' sycl_f32'
@@ -524,7 +484,6 @@ jobs:
524
484
runs-on : ' ubuntu-latest'
525
485
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
526
486
backend : " bark"
527
- latest-image : ' latest-gpu-intel-sycl-f32-bark'
528
487
dockerfile : " ./backend/Dockerfile.python"
529
488
context : " ./backend"
530
489
- build-type : ' sycl_f16'
@@ -536,7 +495,6 @@ jobs:
536
495
runs-on : ' ubuntu-latest'
537
496
base-image : " quay.io/go-skynet/intel-oneapi-base:latest"
538
497
backend : " bark"
539
- latest-image : ' latest-gpu-intel-sycl-f16-bark'
540
498
dockerfile : " ./backend/Dockerfile.python"
541
499
context : " ./backend"
542
500
# bark-cpp
@@ -549,6 +507,5 @@ jobs:
549
507
runs-on : ' ubuntu-latest'
550
508
base-image : " ubuntu:22.04"
551
509
backend : " bark"
552
- latest-image : ' latest-bark-cpp'
553
510
dockerfile : " ./backend/Dockerfile.go"
554
511
context : " ./"
0 commit comments