.. | .. |
---|
39 | 39 | /** |
---|
40 | 40 | * intel_vgpu_gpa_to_mmio_offset - translate a GPA to MMIO offset |
---|
41 | 41 | * @vgpu: a vGPU |
---|
| 42 | + * @gpa: guest physical address |
---|
42 | 43 | * |
---|
43 | 44 | * Returns: |
---|
44 | 45 | * Zero on success, negative error code if failed |
---|
.. | .. |
---|
56 | 57 | (reg >= gvt->device_info.gtt_start_offset \ |
---|
57 | 58 | && reg < gvt->device_info.gtt_start_offset + gvt_ggtt_sz(gvt)) |
---|
58 | 59 | |
---|
59 | | -static void failsafe_emulate_mmio_rw(struct intel_vgpu *vgpu, uint64_t pa, |
---|
| 60 | +static void failsafe_emulate_mmio_rw(struct intel_vgpu *vgpu, u64 pa, |
---|
60 | 61 | void *p_data, unsigned int bytes, bool read) |
---|
61 | 62 | { |
---|
62 | 63 | struct intel_gvt *gvt = NULL; |
---|
.. | .. |
---|
98 | 99 | * Returns: |
---|
99 | 100 | * Zero on success, negative error code if failed |
---|
100 | 101 | */ |
---|
101 | | -int intel_vgpu_emulate_mmio_read(struct intel_vgpu *vgpu, uint64_t pa, |
---|
| 102 | +int intel_vgpu_emulate_mmio_read(struct intel_vgpu *vgpu, u64 pa, |
---|
102 | 103 | void *p_data, unsigned int bytes) |
---|
103 | 104 | { |
---|
104 | 105 | struct intel_gvt *gvt = vgpu->gvt; |
---|
| 106 | + struct drm_i915_private *i915 = gvt->gt->i915; |
---|
105 | 107 | unsigned int offset = 0; |
---|
106 | 108 | int ret = -EINVAL; |
---|
107 | 109 | |
---|
.. | .. |
---|
113 | 115 | |
---|
114 | 116 | offset = intel_vgpu_gpa_to_mmio_offset(vgpu, pa); |
---|
115 | 117 | |
---|
116 | | - if (WARN_ON(bytes > 8)) |
---|
| 118 | + if (drm_WARN_ON(&i915->drm, bytes > 8)) |
---|
117 | 119 | goto err; |
---|
118 | 120 | |
---|
119 | 121 | if (reg_is_gtt(gvt, offset)) { |
---|
120 | | - if (WARN_ON(!IS_ALIGNED(offset, 4) && !IS_ALIGNED(offset, 8))) |
---|
| 122 | + if (drm_WARN_ON(&i915->drm, !IS_ALIGNED(offset, 4) && |
---|
| 123 | + !IS_ALIGNED(offset, 8))) |
---|
121 | 124 | goto err; |
---|
122 | | - if (WARN_ON(bytes != 4 && bytes != 8)) |
---|
| 125 | + if (drm_WARN_ON(&i915->drm, bytes != 4 && bytes != 8)) |
---|
123 | 126 | goto err; |
---|
124 | | - if (WARN_ON(!reg_is_gtt(gvt, offset + bytes - 1))) |
---|
| 127 | + if (drm_WARN_ON(&i915->drm, |
---|
| 128 | + !reg_is_gtt(gvt, offset + bytes - 1))) |
---|
125 | 129 | goto err; |
---|
126 | 130 | |
---|
127 | 131 | ret = intel_vgpu_emulate_ggtt_mmio_read(vgpu, offset, |
---|
.. | .. |
---|
131 | 135 | goto out; |
---|
132 | 136 | } |
---|
133 | 137 | |
---|
134 | | - if (WARN_ON_ONCE(!reg_is_mmio(gvt, offset))) { |
---|
| 138 | + if (drm_WARN_ON_ONCE(&i915->drm, !reg_is_mmio(gvt, offset))) { |
---|
135 | 139 | ret = intel_gvt_hypervisor_read_gpa(vgpu, pa, p_data, bytes); |
---|
136 | 140 | goto out; |
---|
137 | 141 | } |
---|
138 | 142 | |
---|
139 | | - if (WARN_ON(!reg_is_mmio(gvt, offset + bytes - 1))) |
---|
| 143 | + if (drm_WARN_ON(&i915->drm, !reg_is_mmio(gvt, offset + bytes - 1))) |
---|
140 | 144 | goto err; |
---|
141 | 145 | |
---|
142 | 146 | if (!intel_gvt_mmio_is_unalign(gvt, offset)) { |
---|
143 | | - if (WARN_ON(!IS_ALIGNED(offset, bytes))) |
---|
| 147 | + if (drm_WARN_ON(&i915->drm, !IS_ALIGNED(offset, bytes))) |
---|
144 | 148 | goto err; |
---|
145 | 149 | } |
---|
146 | 150 | |
---|
.. | .. |
---|
170 | 174 | * Returns: |
---|
171 | 175 | * Zero on success, negative error code if failed |
---|
172 | 176 | */ |
---|
173 | | -int intel_vgpu_emulate_mmio_write(struct intel_vgpu *vgpu, uint64_t pa, |
---|
| 177 | +int intel_vgpu_emulate_mmio_write(struct intel_vgpu *vgpu, u64 pa, |
---|
174 | 178 | void *p_data, unsigned int bytes) |
---|
175 | 179 | { |
---|
176 | 180 | struct intel_gvt *gvt = vgpu->gvt; |
---|
| 181 | + struct drm_i915_private *i915 = gvt->gt->i915; |
---|
177 | 182 | unsigned int offset = 0; |
---|
178 | 183 | int ret = -EINVAL; |
---|
179 | 184 | |
---|
.. | .. |
---|
186 | 191 | |
---|
187 | 192 | offset = intel_vgpu_gpa_to_mmio_offset(vgpu, pa); |
---|
188 | 193 | |
---|
189 | | - if (WARN_ON(bytes > 8)) |
---|
| 194 | + if (drm_WARN_ON(&i915->drm, bytes > 8)) |
---|
190 | 195 | goto err; |
---|
191 | 196 | |
---|
192 | 197 | if (reg_is_gtt(gvt, offset)) { |
---|
193 | | - if (WARN_ON(!IS_ALIGNED(offset, 4) && !IS_ALIGNED(offset, 8))) |
---|
| 198 | + if (drm_WARN_ON(&i915->drm, !IS_ALIGNED(offset, 4) && |
---|
| 199 | + !IS_ALIGNED(offset, 8))) |
---|
194 | 200 | goto err; |
---|
195 | | - if (WARN_ON(bytes != 4 && bytes != 8)) |
---|
| 201 | + if (drm_WARN_ON(&i915->drm, bytes != 4 && bytes != 8)) |
---|
196 | 202 | goto err; |
---|
197 | | - if (WARN_ON(!reg_is_gtt(gvt, offset + bytes - 1))) |
---|
| 203 | + if (drm_WARN_ON(&i915->drm, |
---|
| 204 | + !reg_is_gtt(gvt, offset + bytes - 1))) |
---|
198 | 205 | goto err; |
---|
199 | 206 | |
---|
200 | 207 | ret = intel_vgpu_emulate_ggtt_mmio_write(vgpu, offset, |
---|
.. | .. |
---|
204 | 211 | goto out; |
---|
205 | 212 | } |
---|
206 | 213 | |
---|
207 | | - if (WARN_ON_ONCE(!reg_is_mmio(gvt, offset))) { |
---|
| 214 | + if (drm_WARN_ON_ONCE(&i915->drm, !reg_is_mmio(gvt, offset))) { |
---|
208 | 215 | ret = intel_gvt_hypervisor_write_gpa(vgpu, pa, p_data, bytes); |
---|
209 | 216 | goto out; |
---|
210 | 217 | } |
---|
.. | .. |
---|
228 | 235 | /** |
---|
229 | 236 | * intel_vgpu_reset_mmio - reset virtual MMIO space |
---|
230 | 237 | * @vgpu: a vGPU |
---|
231 | | - * |
---|
| 238 | + * @dmlr: whether this is device model level reset |
---|
232 | 239 | */ |
---|
233 | 240 | void intel_vgpu_reset_mmio(struct intel_vgpu *vgpu, bool dmlr) |
---|
234 | 241 | { |
---|
.. | .. |
---|
238 | 245 | |
---|
239 | 246 | if (dmlr) { |
---|
240 | 247 | memcpy(vgpu->mmio.vreg, mmio, info->mmio_size); |
---|
241 | | - memcpy(vgpu->mmio.sreg, mmio, info->mmio_size); |
---|
242 | 248 | |
---|
243 | 249 | vgpu_vreg_t(vgpu, GEN6_GT_THREAD_STATUS_REG) = 0; |
---|
244 | 250 | |
---|
245 | 251 | /* set the bit 0:2(Core C-State ) to C0 */ |
---|
246 | 252 | vgpu_vreg_t(vgpu, GEN6_GT_CORE_STATUS) = 0; |
---|
247 | 253 | |
---|
248 | | - if (IS_BROXTON(vgpu->gvt->dev_priv)) { |
---|
| 254 | + /* uc reset hw expect GS_MIA_IN_RESET */ |
---|
| 255 | + vgpu_vreg_t(vgpu, GUC_STATUS) |= GS_MIA_IN_RESET; |
---|
| 256 | + |
---|
| 257 | + if (IS_BROXTON(vgpu->gvt->gt->i915)) { |
---|
249 | 258 | vgpu_vreg_t(vgpu, BXT_P_CR_GT_DISP_PWRON) &= |
---|
250 | 259 | ~(BIT(0) | BIT(1)); |
---|
251 | 260 | vgpu_vreg_t(vgpu, BXT_PORT_CL1CM_DW0(DPIO_PHY0)) &= |
---|
.. | .. |
---|
271 | 280 | vgpu_vreg_t(vgpu, BXT_PHY_CTL(PORT_C)) |= |
---|
272 | 281 | BXT_PHY_CMNLANE_POWERDOWN_ACK | |
---|
273 | 282 | BXT_PHY_LANE_POWERDOWN_ACK; |
---|
| 283 | + vgpu_vreg_t(vgpu, SKL_FUSE_STATUS) |= |
---|
| 284 | + SKL_FUSE_DOWNLOAD_STATUS | |
---|
| 285 | + SKL_FUSE_PG_DIST_STATUS(SKL_PG0) | |
---|
| 286 | + SKL_FUSE_PG_DIST_STATUS(SKL_PG1) | |
---|
| 287 | + SKL_FUSE_PG_DIST_STATUS(SKL_PG2); |
---|
274 | 288 | } |
---|
275 | 289 | } else { |
---|
276 | 290 | #define GVT_GEN8_MMIO_RESET_OFFSET (0x44200) |
---|
.. | .. |
---|
279 | 293 | * touched |
---|
280 | 294 | */ |
---|
281 | 295 | memcpy(vgpu->mmio.vreg, mmio, GVT_GEN8_MMIO_RESET_OFFSET); |
---|
282 | | - memcpy(vgpu->mmio.sreg, mmio, GVT_GEN8_MMIO_RESET_OFFSET); |
---|
283 | 296 | } |
---|
284 | 297 | |
---|
285 | 298 | } |
---|
.. | .. |
---|
295 | 308 | { |
---|
296 | 309 | const struct intel_gvt_device_info *info = &vgpu->gvt->device_info; |
---|
297 | 310 | |
---|
298 | | - vgpu->mmio.vreg = vzalloc(array_size(info->mmio_size, 2)); |
---|
| 311 | + vgpu->mmio.vreg = vzalloc(info->mmio_size); |
---|
299 | 312 | if (!vgpu->mmio.vreg) |
---|
300 | 313 | return -ENOMEM; |
---|
301 | | - |
---|
302 | | - vgpu->mmio.sreg = vgpu->mmio.vreg + info->mmio_size; |
---|
303 | 314 | |
---|
304 | 315 | intel_vgpu_reset_mmio(vgpu, true); |
---|
305 | 316 | |
---|
.. | .. |
---|
314 | 325 | void intel_vgpu_clean_mmio(struct intel_vgpu *vgpu) |
---|
315 | 326 | { |
---|
316 | 327 | vfree(vgpu->mmio.vreg); |
---|
317 | | - vgpu->mmio.vreg = vgpu->mmio.sreg = NULL; |
---|
| 328 | + vgpu->mmio.vreg = NULL; |
---|
318 | 329 | } |
---|