1 /* SPDX-License-Identifier: GPL-2.0 */
2 /*
3 * Synopsys DesignWare PCIe host controller driver
4 *
5 * Copyright (C) 2013 Samsung Electronics Co., Ltd.
6 * https://www.samsung.com
7 *
8 * Author: Jingoo Han <[email protected]>
9 */
10
11 #ifndef _PCIE_DESIGNWARE_H
12 #define _PCIE_DESIGNWARE_H
13
14 #include <linux/bitfield.h>
15 #include <linux/bitops.h>
16 #include <linux/clk.h>
17 #include <linux/dma-mapping.h>
18 #include <linux/dma/edma.h>
19 #include <linux/gpio/consumer.h>
20 #include <linux/irq.h>
21 #include <linux/msi.h>
22 #include <linux/pci.h>
23 #include <linux/reset.h>
24
25 #include <linux/pci-epc.h>
26 #include <linux/pci-epf.h>
27
28 /* DWC PCIe IP-core versions (native support since v4.70a) */
29 #define DW_PCIE_VER_365A 0x3336352a
30 #define DW_PCIE_VER_460A 0x3436302a
31 #define DW_PCIE_VER_470A 0x3437302a
32 #define DW_PCIE_VER_480A 0x3438302a
33 #define DW_PCIE_VER_490A 0x3439302a
34 #define DW_PCIE_VER_520A 0x3532302a
35 #define DW_PCIE_VER_540A 0x3534302a
36
37 #define __dw_pcie_ver_cmp(_pci, _ver, _op) \
38 ((_pci)->version _op DW_PCIE_VER_ ## _ver)
39
40 #define dw_pcie_ver_is(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, ==)
41
42 #define dw_pcie_ver_is_ge(_pci, _ver) __dw_pcie_ver_cmp(_pci, _ver, >=)
43
44 #define dw_pcie_ver_type_is(_pci, _ver, _type) \
45 (__dw_pcie_ver_cmp(_pci, _ver, ==) && \
46 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, ==))
47
48 #define dw_pcie_ver_type_is_ge(_pci, _ver, _type) \
49 (__dw_pcie_ver_cmp(_pci, _ver, ==) && \
50 __dw_pcie_ver_cmp(_pci, TYPE_ ## _type, >=))
51
52 /* DWC PCIe controller capabilities */
53 #define DW_PCIE_CAP_REQ_RES 0
54 #define DW_PCIE_CAP_IATU_UNROLL 1
55 #define DW_PCIE_CAP_CDM_CHECK 2
56
57 #define dw_pcie_cap_is(_pci, _cap) \
58 test_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps)
59
60 #define dw_pcie_cap_set(_pci, _cap) \
61 set_bit(DW_PCIE_CAP_ ## _cap, &(_pci)->caps)
62
63 /* Parameters for the waiting for link up routine */
64 #define LINK_WAIT_MAX_RETRIES 10
65 #define LINK_WAIT_SLEEP_MS 90
66
67 /* Parameters for the waiting for iATU enabled routine */
68 #define LINK_WAIT_MAX_IATU_RETRIES 5
69 #define LINK_WAIT_IATU 9
70
71 /* Synopsys-specific PCIe configuration registers */
72 #define PCIE_PORT_FORCE 0x708
73 #define PORT_FORCE_DO_DESKEW_FOR_SRIS BIT(23)
74
75 #define PCIE_PORT_AFR 0x70C
76 #define PORT_AFR_N_FTS_MASK GENMASK(15, 8)
77 #define PORT_AFR_N_FTS(n) FIELD_PREP(PORT_AFR_N_FTS_MASK, n)
78 #define PORT_AFR_CC_N_FTS_MASK GENMASK(23, 16)
79 #define PORT_AFR_CC_N_FTS(n) FIELD_PREP(PORT_AFR_CC_N_FTS_MASK, n)
80 #define PORT_AFR_ENTER_ASPM BIT(30)
81 #define PORT_AFR_L0S_ENTRANCE_LAT_SHIFT 24
82 #define PORT_AFR_L0S_ENTRANCE_LAT_MASK GENMASK(26, 24)
83 #define PORT_AFR_L1_ENTRANCE_LAT_SHIFT 27
84 #define PORT_AFR_L1_ENTRANCE_LAT_MASK GENMASK(29, 27)
85
86 #define PCIE_PORT_LINK_CONTROL 0x710
87 #define PORT_LINK_DLL_LINK_EN BIT(5)
88 #define PORT_LINK_FAST_LINK_MODE BIT(7)
89 #define PORT_LINK_MODE_MASK GENMASK(21, 16)
90 #define PORT_LINK_MODE(n) FIELD_PREP(PORT_LINK_MODE_MASK, n)
91 #define PORT_LINK_MODE_1_LANES PORT_LINK_MODE(0x1)
92 #define PORT_LINK_MODE_2_LANES PORT_LINK_MODE(0x3)
93 #define PORT_LINK_MODE_4_LANES PORT_LINK_MODE(0x7)
94 #define PORT_LINK_MODE_8_LANES PORT_LINK_MODE(0xf)
95
96 #define PCIE_PORT_LANE_SKEW 0x714
97 #define PORT_LANE_SKEW_INSERT_MASK GENMASK(23, 0)
98
99 #define PCIE_PORT_DEBUG0 0x728
100 #define PORT_LOGIC_LTSSM_STATE_MASK 0x1f
101 #define PORT_LOGIC_LTSSM_STATE_L0 0x11
102 #define PCIE_PORT_DEBUG1 0x72C
103 #define PCIE_PORT_DEBUG1_LINK_UP BIT(4)
104 #define PCIE_PORT_DEBUG1_LINK_IN_TRAINING BIT(29)
105
106 #define PCIE_LINK_WIDTH_SPEED_CONTROL 0x80C
107 #define PORT_LOGIC_N_FTS_MASK GENMASK(7, 0)
108 #define PORT_LOGIC_SPEED_CHANGE BIT(17)
109 #define PORT_LOGIC_LINK_WIDTH_MASK GENMASK(12, 8)
110 #define PORT_LOGIC_LINK_WIDTH(n) FIELD_PREP(PORT_LOGIC_LINK_WIDTH_MASK, n)
111 #define PORT_LOGIC_LINK_WIDTH_1_LANES PORT_LOGIC_LINK_WIDTH(0x1)
112 #define PORT_LOGIC_LINK_WIDTH_2_LANES PORT_LOGIC_LINK_WIDTH(0x2)
113 #define PORT_LOGIC_LINK_WIDTH_4_LANES PORT_LOGIC_LINK_WIDTH(0x4)
114 #define PORT_LOGIC_LINK_WIDTH_8_LANES PORT_LOGIC_LINK_WIDTH(0x8)
115
116 #define PCIE_MSI_ADDR_LO 0x820
117 #define PCIE_MSI_ADDR_HI 0x824
118 #define PCIE_MSI_INTR0_ENABLE 0x828
119 #define PCIE_MSI_INTR0_MASK 0x82C
120 #define PCIE_MSI_INTR0_STATUS 0x830
121
122 #define GEN3_RELATED_OFF 0x890
123 #define GEN3_RELATED_OFF_GEN3_ZRXDC_NONCOMPL BIT(0)
124 #define GEN3_RELATED_OFF_RXEQ_RGRDLESS_RXTS BIT(13)
125 #define GEN3_RELATED_OFF_GEN3_EQ_DISABLE BIT(16)
126 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_SHIFT 24
127 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_MASK GENMASK(25, 24)
128 #define GEN3_RELATED_OFF_RATE_SHADOW_SEL_16_0GT 0x1
129
130 #define GEN3_EQ_CONTROL_OFF 0x8A8
131 #define GEN3_EQ_CONTROL_OFF_FB_MODE GENMASK(3, 0)
132 #define GEN3_EQ_CONTROL_OFF_PHASE23_EXIT_MODE BIT(4)
133 #define GEN3_EQ_CONTROL_OFF_PSET_REQ_VEC GENMASK(23, 8)
134 #define GEN3_EQ_CONTROL_OFF_FOM_INC_INITIAL_EVAL BIT(24)
135
136 #define GEN3_EQ_FB_MODE_DIR_CHANGE_OFF 0x8AC
137 #define GEN3_EQ_FMDC_T_MIN_PHASE23 GENMASK(4, 0)
138 #define GEN3_EQ_FMDC_N_EVALS GENMASK(9, 5)
139 #define GEN3_EQ_FMDC_MAX_PRE_CUSROR_DELTA GENMASK(13, 10)
140 #define GEN3_EQ_FMDC_MAX_POST_CUSROR_DELTA GENMASK(17, 14)
141
142 #define PCIE_PORT_MULTI_LANE_CTRL 0x8C0
143 #define PORT_MLTI_UPCFG_SUPPORT BIT(7)
144
145 #define PCIE_VERSION_NUMBER 0x8F8
146 #define PCIE_VERSION_TYPE 0x8FC
147
148 /*
149 * iATU inbound and outbound windows CSRs. Before the IP-core v4.80a each
150 * iATU region CSRs had been indirectly accessible by means of the dedicated
151 * viewport selector. The iATU/eDMA CSRs space was re-designed in DWC PCIe
152 * v4.80a in a way so the viewport was unrolled into the directly accessible
153 * iATU/eDMA CSRs space.
154 */
155 #define PCIE_ATU_VIEWPORT 0x900
156 #define PCIE_ATU_REGION_DIR_IB BIT(31)
157 #define PCIE_ATU_REGION_DIR_OB 0
158 #define PCIE_ATU_VIEWPORT_BASE 0x904
159 #define PCIE_ATU_UNROLL_BASE(dir, index) \
160 (((index) << 9) | ((dir == PCIE_ATU_REGION_DIR_IB) ? BIT(8) : 0))
161 #define PCIE_ATU_VIEWPORT_SIZE 0x2C
162 #define PCIE_ATU_REGION_CTRL1 0x000
163 #define PCIE_ATU_INCREASE_REGION_SIZE BIT(13)
164 #define PCIE_ATU_TYPE_MEM 0x0
165 #define PCIE_ATU_TYPE_IO 0x2
166 #define PCIE_ATU_TYPE_CFG0 0x4
167 #define PCIE_ATU_TYPE_CFG1 0x5
168 #define PCIE_ATU_TYPE_MSG 0x10
169 #define PCIE_ATU_TD BIT(8)
170 #define PCIE_ATU_FUNC_NUM(pf) ((pf) << 20)
171 #define PCIE_ATU_REGION_CTRL2 0x004
172 #define PCIE_ATU_ENABLE BIT(31)
173 #define PCIE_ATU_BAR_MODE_ENABLE BIT(30)
174 #define PCIE_ATU_INHIBIT_PAYLOAD BIT(22)
175 #define PCIE_ATU_FUNC_NUM_MATCH_EN BIT(19)
176 #define PCIE_ATU_LOWER_BASE 0x008
177 #define PCIE_ATU_UPPER_BASE 0x00C
178 #define PCIE_ATU_LIMIT 0x010
179 #define PCIE_ATU_LOWER_TARGET 0x014
180 #define PCIE_ATU_BUS(x) FIELD_PREP(GENMASK(31, 24), x)
181 #define PCIE_ATU_DEV(x) FIELD_PREP(GENMASK(23, 19), x)
182 #define PCIE_ATU_FUNC(x) FIELD_PREP(GENMASK(18, 16), x)
183 #define PCIE_ATU_UPPER_TARGET 0x018
184 #define PCIE_ATU_UPPER_LIMIT 0x020
185
186 #define PCIE_MISC_CONTROL_1_OFF 0x8BC
187 #define PCIE_DBI_RO_WR_EN BIT(0)
188
189 #define PCIE_MSIX_DOORBELL 0x948
190 #define PCIE_MSIX_DOORBELL_PF_SHIFT 24
191
192 /*
193 * eDMA CSRs. DW PCIe IP-core v4.70a and older had the eDMA registers accessible
194 * over the Port Logic registers space. Afterwards the unrolled mapping was
195 * introduced so eDMA and iATU could be accessed via a dedicated registers
196 * space.
197 */
198 #define PCIE_DMA_VIEWPORT_BASE 0x970
199 #define PCIE_DMA_UNROLL_BASE 0x80000
200 #define PCIE_DMA_CTRL 0x008
201 #define PCIE_DMA_NUM_WR_CHAN GENMASK(3, 0)
202 #define PCIE_DMA_NUM_RD_CHAN GENMASK(19, 16)
203
204 #define PCIE_PL_CHK_REG_CONTROL_STATUS 0xB20
205 #define PCIE_PL_CHK_REG_CHK_REG_START BIT(0)
206 #define PCIE_PL_CHK_REG_CHK_REG_CONTINUOUS BIT(1)
207 #define PCIE_PL_CHK_REG_CHK_REG_COMPARISON_ERROR BIT(16)
208 #define PCIE_PL_CHK_REG_CHK_REG_LOGIC_ERROR BIT(17)
209 #define PCIE_PL_CHK_REG_CHK_REG_COMPLETE BIT(18)
210
211 #define PCIE_PL_CHK_REG_ERR_ADDR 0xB28
212
213 /*
214 * 16.0 GT/s (Gen 4) lane margining register definitions
215 */
216 #define GEN4_LANE_MARGINING_1_OFF 0xB80
217 #define MARGINING_MAX_VOLTAGE_OFFSET GENMASK(29, 24)
218 #define MARGINING_NUM_VOLTAGE_STEPS GENMASK(22, 16)
219 #define MARGINING_MAX_TIMING_OFFSET GENMASK(13, 8)
220 #define MARGINING_NUM_TIMING_STEPS GENMASK(5, 0)
221
222 #define GEN4_LANE_MARGINING_2_OFF 0xB84
223 #define MARGINING_IND_ERROR_SAMPLER BIT(28)
224 #define MARGINING_SAMPLE_REPORTING_METHOD BIT(27)
225 #define MARGINING_IND_LEFT_RIGHT_TIMING BIT(26)
226 #define MARGINING_IND_UP_DOWN_VOLTAGE BIT(25)
227 #define MARGINING_VOLTAGE_SUPPORTED BIT(24)
228 #define MARGINING_MAXLANES GENMASK(20, 16)
229 #define MARGINING_SAMPLE_RATE_TIMING GENMASK(13, 8)
230 #define MARGINING_SAMPLE_RATE_VOLTAGE GENMASK(5, 0)
231 /*
232 * iATU Unroll-specific register definitions
233 * From 4.80 core version the address translation will be made by unroll
234 */
235 #define PCIE_ATU_UNR_REGION_CTRL1 0x00
236 #define PCIE_ATU_UNR_REGION_CTRL2 0x04
237 #define PCIE_ATU_UNR_LOWER_BASE 0x08
238 #define PCIE_ATU_UNR_UPPER_BASE 0x0C
239 #define PCIE_ATU_UNR_LOWER_LIMIT 0x10
240 #define PCIE_ATU_UNR_LOWER_TARGET 0x14
241 #define PCIE_ATU_UNR_UPPER_TARGET 0x18
242 #define PCIE_ATU_UNR_UPPER_LIMIT 0x20
243
244 /*
245 * RAS-DES register definitions
246 */
247 #define PCIE_RAS_DES_EVENT_COUNTER_CONTROL 0x8
248 #define EVENT_COUNTER_ALL_CLEAR 0x3
249 #define EVENT_COUNTER_ENABLE_ALL 0x7
250 #define EVENT_COUNTER_ENABLE_SHIFT 2
251 #define EVENT_COUNTER_EVENT_SEL_MASK GENMASK(7, 0)
252 #define EVENT_COUNTER_EVENT_SEL_SHIFT 16
253 #define EVENT_COUNTER_EVENT_Tx_L0S 0x2
254 #define EVENT_COUNTER_EVENT_Rx_L0S 0x3
255 #define EVENT_COUNTER_EVENT_L1 0x5
256 #define EVENT_COUNTER_EVENT_L1_1 0x7
257 #define EVENT_COUNTER_EVENT_L1_2 0x8
258 #define EVENT_COUNTER_GROUP_SEL_SHIFT 24
259 #define EVENT_COUNTER_GROUP_5 0x5
260
261 #define PCIE_RAS_DES_EVENT_COUNTER_DATA 0xc
262
263 /*
264 * The default address offset between dbi_base and atu_base. Root controller
265 * drivers are not required to initialize atu_base if the offset matches this
266 * default; the driver core automatically derives atu_base from dbi_base using
267 * this offset, if atu_base not set.
268 */
269 #define DEFAULT_DBI_ATU_OFFSET (0x3 << 20)
270 #define DEFAULT_DBI_DMA_OFFSET PCIE_DMA_UNROLL_BASE
271
272 #define MAX_MSI_IRQS 256
273 #define MAX_MSI_IRQS_PER_CTRL 32
274 #define MAX_MSI_CTRLS (MAX_MSI_IRQS / MAX_MSI_IRQS_PER_CTRL)
275 #define MSI_REG_CTRL_BLOCK_SIZE 12
276 #define MSI_DEF_NUM_VECTORS 32
277
278 /* Maximum number of inbound/outbound iATUs */
279 #define MAX_IATU_IN 256
280 #define MAX_IATU_OUT 256
281
282 /* Default eDMA LLP memory size */
283 #define DMA_LLP_MEM_SIZE PAGE_SIZE
284
285 struct dw_pcie;
286 struct dw_pcie_rp;
287 struct dw_pcie_ep;
288
289 enum dw_pcie_device_mode {
290 DW_PCIE_UNKNOWN_TYPE,
291 DW_PCIE_EP_TYPE,
292 DW_PCIE_LEG_EP_TYPE,
293 DW_PCIE_RC_TYPE,
294 };
295
296 enum dw_pcie_app_clk {
297 DW_PCIE_DBI_CLK,
298 DW_PCIE_MSTR_CLK,
299 DW_PCIE_SLV_CLK,
300 DW_PCIE_NUM_APP_CLKS
301 };
302
303 enum dw_pcie_core_clk {
304 DW_PCIE_PIPE_CLK,
305 DW_PCIE_CORE_CLK,
306 DW_PCIE_AUX_CLK,
307 DW_PCIE_REF_CLK,
308 DW_PCIE_NUM_CORE_CLKS
309 };
310
311 enum dw_pcie_app_rst {
312 DW_PCIE_DBI_RST,
313 DW_PCIE_MSTR_RST,
314 DW_PCIE_SLV_RST,
315 DW_PCIE_NUM_APP_RSTS
316 };
317
318 enum dw_pcie_core_rst {
319 DW_PCIE_NON_STICKY_RST,
320 DW_PCIE_STICKY_RST,
321 DW_PCIE_CORE_RST,
322 DW_PCIE_PIPE_RST,
323 DW_PCIE_PHY_RST,
324 DW_PCIE_HOT_RST,
325 DW_PCIE_PWR_RST,
326 DW_PCIE_NUM_CORE_RSTS
327 };
328
329 enum dw_pcie_ltssm {
330 /* Need to align with PCIE_PORT_DEBUG0 bits 0:5 */
331 DW_PCIE_LTSSM_DETECT_QUIET = 0x0,
332 DW_PCIE_LTSSM_DETECT_ACT = 0x1,
333 DW_PCIE_LTSSM_DETECT_WAIT = 0x6,
334 DW_PCIE_LTSSM_L0 = 0x11,
335 DW_PCIE_LTSSM_L2_IDLE = 0x15,
336
337 DW_PCIE_LTSSM_UNKNOWN = 0xFFFFFFFF,
338 };
339
340 struct dw_pcie_ob_atu_cfg {
341 int index;
342 int type;
343 u8 func_no;
344 u8 code;
345 u8 routing;
346 u64 cpu_addr;
347 u64 pci_addr;
348 u64 size;
349 };
350
351 struct dw_pcie_host_ops {
352 int (*init)(struct dw_pcie_rp *pp);
353 void (*deinit)(struct dw_pcie_rp *pp);
354 void (*post_init)(struct dw_pcie_rp *pp);
355 int (*msi_init)(struct dw_pcie_rp *pp);
356 void (*pme_turn_off)(struct dw_pcie_rp *pp);
357 };
358
359 struct dw_pcie_rp {
360 bool has_msi_ctrl:1;
361 bool cfg0_io_shared:1;
362 u64 cfg0_base;
363 void __iomem *va_cfg0_base;
364 u32 cfg0_size;
365 resource_size_t io_base;
366 phys_addr_t io_bus_addr;
367 u32 io_size;
368 int irq;
369 const struct dw_pcie_host_ops *ops;
370 int msi_irq[MAX_MSI_CTRLS];
371 struct irq_domain *irq_domain;
372 struct irq_domain *msi_domain;
373 dma_addr_t msi_data;
374 struct irq_chip *msi_irq_chip;
375 u32 num_vectors;
376 u32 irq_mask[MAX_MSI_CTRLS];
377 struct pci_host_bridge *bridge;
378 raw_spinlock_t lock;
379 DECLARE_BITMAP(msi_irq_in_use, MAX_MSI_IRQS);
380 bool use_atu_msg;
381 int msg_atu_index;
382 struct resource *msg_res;
383 bool use_linkup_irq;
384 };
385
386 struct dw_pcie_ep_ops {
387 void (*pre_init)(struct dw_pcie_ep *ep);
388 void (*init)(struct dw_pcie_ep *ep);
389 int (*raise_irq)(struct dw_pcie_ep *ep, u8 func_no,
390 unsigned int type, u16 interrupt_num);
391 const struct pci_epc_features* (*get_features)(struct dw_pcie_ep *ep);
392 /*
393 * Provide a method to implement the different func config space
394 * access for different platform, if different func have different
395 * offset, return the offset of func. if use write a register way
396 * return a 0, and implement code in callback function of platform
397 * driver.
398 */
399 unsigned int (*get_dbi_offset)(struct dw_pcie_ep *ep, u8 func_no);
400 unsigned int (*get_dbi2_offset)(struct dw_pcie_ep *ep, u8 func_no);
401 };
402
403 struct dw_pcie_ep_func {
404 struct list_head list;
405 u8 func_no;
406 u8 msi_cap; /* MSI capability offset */
407 u8 msix_cap; /* MSI-X capability offset */
408 };
409
410 struct dw_pcie_ep {
411 struct pci_epc *epc;
412 struct list_head func_list;
413 const struct dw_pcie_ep_ops *ops;
414 phys_addr_t phys_base;
415 size_t addr_size;
416 size_t page_size;
417 u8 bar_to_atu[PCI_STD_NUM_BARS];
418 phys_addr_t *outbound_addr;
419 unsigned long *ib_window_map;
420 unsigned long *ob_window_map;
421 void __iomem *msi_mem;
422 phys_addr_t msi_mem_phys;
423 struct pci_epf_bar *epf_bar[PCI_STD_NUM_BARS];
424 };
425
426 struct dw_pcie_ops {
427 u64 (*cpu_addr_fixup)(struct dw_pcie *pcie, u64 cpu_addr);
428 u32 (*read_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
429 size_t size);
430 void (*write_dbi)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
431 size_t size, u32 val);
432 void (*write_dbi2)(struct dw_pcie *pcie, void __iomem *base, u32 reg,
433 size_t size, u32 val);
434 int (*link_up)(struct dw_pcie *pcie);
435 enum dw_pcie_ltssm (*get_ltssm)(struct dw_pcie *pcie);
436 int (*start_link)(struct dw_pcie *pcie);
437 void (*stop_link)(struct dw_pcie *pcie);
438 };
439
440 struct dw_pcie {
441 struct device *dev;
442 void __iomem *dbi_base;
443 resource_size_t dbi_phys_addr;
444 void __iomem *dbi_base2;
445 void __iomem *atu_base;
446 resource_size_t atu_phys_addr;
447 size_t atu_size;
448 u32 num_ib_windows;
449 u32 num_ob_windows;
450 u32 region_align;
451 u64 region_limit;
452 struct dw_pcie_rp pp;
453 struct dw_pcie_ep ep;
454 const struct dw_pcie_ops *ops;
455 u32 version;
456 u32 type;
457 unsigned long caps;
458 int num_lanes;
459 int max_link_speed;
460 u8 n_fts[2];
461 struct dw_edma_chip edma;
462 struct clk_bulk_data app_clks[DW_PCIE_NUM_APP_CLKS];
463 struct clk_bulk_data core_clks[DW_PCIE_NUM_CORE_CLKS];
464 struct reset_control_bulk_data app_rsts[DW_PCIE_NUM_APP_RSTS];
465 struct reset_control_bulk_data core_rsts[DW_PCIE_NUM_CORE_RSTS];
466 struct gpio_desc *pe_rst;
467 bool suspended;
468 };
469
470 #define to_dw_pcie_from_pp(port) container_of((port), struct dw_pcie, pp)
471
472 #define to_dw_pcie_from_ep(endpoint) \
473 container_of((endpoint), struct dw_pcie, ep)
474
475 int dw_pcie_get_resources(struct dw_pcie *pci);
476
477 void dw_pcie_version_detect(struct dw_pcie *pci);
478
479 u8 dw_pcie_find_capability(struct dw_pcie *pci, u8 cap);
480 u16 dw_pcie_find_ext_capability(struct dw_pcie *pci, u8 cap);
481
482 int dw_pcie_read(void __iomem *addr, int size, u32 *val);
483 int dw_pcie_write(void __iomem *addr, int size, u32 val);
484
485 u32 dw_pcie_read_dbi(struct dw_pcie *pci, u32 reg, size_t size);
486 void dw_pcie_write_dbi(struct dw_pcie *pci, u32 reg, size_t size, u32 val);
487 void dw_pcie_write_dbi2(struct dw_pcie *pci, u32 reg, size_t size, u32 val);
488 int dw_pcie_link_up(struct dw_pcie *pci);
489 void dw_pcie_upconfig_setup(struct dw_pcie *pci);
490 int dw_pcie_wait_for_link(struct dw_pcie *pci);
491 int dw_pcie_prog_outbound_atu(struct dw_pcie *pci,
492 const struct dw_pcie_ob_atu_cfg *atu);
493 int dw_pcie_prog_inbound_atu(struct dw_pcie *pci, int index, int type,
494 u64 cpu_addr, u64 pci_addr, u64 size);
495 int dw_pcie_prog_ep_inbound_atu(struct dw_pcie *pci, u8 func_no, int index,
496 int type, u64 cpu_addr, u8 bar, size_t size);
497 void dw_pcie_disable_atu(struct dw_pcie *pci, u32 dir, int index);
498 void dw_pcie_setup(struct dw_pcie *pci);
499 void dw_pcie_iatu_detect(struct dw_pcie *pci);
500 int dw_pcie_edma_detect(struct dw_pcie *pci);
501 void dw_pcie_edma_remove(struct dw_pcie *pci);
502
dw_pcie_writel_dbi(struct dw_pcie * pci,u32 reg,u32 val)503 static inline void dw_pcie_writel_dbi(struct dw_pcie *pci, u32 reg, u32 val)
504 {
505 dw_pcie_write_dbi(pci, reg, 0x4, val);
506 }
507
dw_pcie_readl_dbi(struct dw_pcie * pci,u32 reg)508 static inline u32 dw_pcie_readl_dbi(struct dw_pcie *pci, u32 reg)
509 {
510 return dw_pcie_read_dbi(pci, reg, 0x4);
511 }
512
dw_pcie_writew_dbi(struct dw_pcie * pci,u32 reg,u16 val)513 static inline void dw_pcie_writew_dbi(struct dw_pcie *pci, u32 reg, u16 val)
514 {
515 dw_pcie_write_dbi(pci, reg, 0x2, val);
516 }
517
dw_pcie_readw_dbi(struct dw_pcie * pci,u32 reg)518 static inline u16 dw_pcie_readw_dbi(struct dw_pcie *pci, u32 reg)
519 {
520 return dw_pcie_read_dbi(pci, reg, 0x2);
521 }
522
dw_pcie_writeb_dbi(struct dw_pcie * pci,u32 reg,u8 val)523 static inline void dw_pcie_writeb_dbi(struct dw_pcie *pci, u32 reg, u8 val)
524 {
525 dw_pcie_write_dbi(pci, reg, 0x1, val);
526 }
527
dw_pcie_readb_dbi(struct dw_pcie * pci,u32 reg)528 static inline u8 dw_pcie_readb_dbi(struct dw_pcie *pci, u32 reg)
529 {
530 return dw_pcie_read_dbi(pci, reg, 0x1);
531 }
532
dw_pcie_writel_dbi2(struct dw_pcie * pci,u32 reg,u32 val)533 static inline void dw_pcie_writel_dbi2(struct dw_pcie *pci, u32 reg, u32 val)
534 {
535 dw_pcie_write_dbi2(pci, reg, 0x4, val);
536 }
537
dw_pcie_ep_get_dbi_offset(struct dw_pcie_ep * ep,u8 func_no)538 static inline unsigned int dw_pcie_ep_get_dbi_offset(struct dw_pcie_ep *ep,
539 u8 func_no)
540 {
541 unsigned int dbi_offset = 0;
542
543 if (ep->ops->get_dbi_offset)
544 dbi_offset = ep->ops->get_dbi_offset(ep, func_no);
545
546 return dbi_offset;
547 }
548
dw_pcie_ep_read_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size)549 static inline u32 dw_pcie_ep_read_dbi(struct dw_pcie_ep *ep, u8 func_no,
550 u32 reg, size_t size)
551 {
552 unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no);
553 struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
554
555 return dw_pcie_read_dbi(pci, offset + reg, size);
556 }
557
dw_pcie_ep_write_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size,u32 val)558 static inline void dw_pcie_ep_write_dbi(struct dw_pcie_ep *ep, u8 func_no,
559 u32 reg, size_t size, u32 val)
560 {
561 unsigned int offset = dw_pcie_ep_get_dbi_offset(ep, func_no);
562 struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
563
564 dw_pcie_write_dbi(pci, offset + reg, size, val);
565 }
566
dw_pcie_ep_writel_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u32 val)567 static inline void dw_pcie_ep_writel_dbi(struct dw_pcie_ep *ep, u8 func_no,
568 u32 reg, u32 val)
569 {
570 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x4, val);
571 }
572
dw_pcie_ep_readl_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)573 static inline u32 dw_pcie_ep_readl_dbi(struct dw_pcie_ep *ep, u8 func_no,
574 u32 reg)
575 {
576 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x4);
577 }
578
dw_pcie_ep_writew_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u16 val)579 static inline void dw_pcie_ep_writew_dbi(struct dw_pcie_ep *ep, u8 func_no,
580 u32 reg, u16 val)
581 {
582 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x2, val);
583 }
584
dw_pcie_ep_readw_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)585 static inline u16 dw_pcie_ep_readw_dbi(struct dw_pcie_ep *ep, u8 func_no,
586 u32 reg)
587 {
588 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x2);
589 }
590
dw_pcie_ep_writeb_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u8 val)591 static inline void dw_pcie_ep_writeb_dbi(struct dw_pcie_ep *ep, u8 func_no,
592 u32 reg, u8 val)
593 {
594 dw_pcie_ep_write_dbi(ep, func_no, reg, 0x1, val);
595 }
596
dw_pcie_ep_readb_dbi(struct dw_pcie_ep * ep,u8 func_no,u32 reg)597 static inline u8 dw_pcie_ep_readb_dbi(struct dw_pcie_ep *ep, u8 func_no,
598 u32 reg)
599 {
600 return dw_pcie_ep_read_dbi(ep, func_no, reg, 0x1);
601 }
602
dw_pcie_ep_get_dbi2_offset(struct dw_pcie_ep * ep,u8 func_no)603 static inline unsigned int dw_pcie_ep_get_dbi2_offset(struct dw_pcie_ep *ep,
604 u8 func_no)
605 {
606 unsigned int dbi2_offset = 0;
607
608 if (ep->ops->get_dbi2_offset)
609 dbi2_offset = ep->ops->get_dbi2_offset(ep, func_no);
610 else if (ep->ops->get_dbi_offset) /* for backward compatibility */
611 dbi2_offset = ep->ops->get_dbi_offset(ep, func_no);
612
613 return dbi2_offset;
614 }
615
dw_pcie_ep_write_dbi2(struct dw_pcie_ep * ep,u8 func_no,u32 reg,size_t size,u32 val)616 static inline void dw_pcie_ep_write_dbi2(struct dw_pcie_ep *ep, u8 func_no,
617 u32 reg, size_t size, u32 val)
618 {
619 unsigned int offset = dw_pcie_ep_get_dbi2_offset(ep, func_no);
620 struct dw_pcie *pci = to_dw_pcie_from_ep(ep);
621
622 dw_pcie_write_dbi2(pci, offset + reg, size, val);
623 }
624
dw_pcie_ep_writel_dbi2(struct dw_pcie_ep * ep,u8 func_no,u32 reg,u32 val)625 static inline void dw_pcie_ep_writel_dbi2(struct dw_pcie_ep *ep, u8 func_no,
626 u32 reg, u32 val)
627 {
628 dw_pcie_ep_write_dbi2(ep, func_no, reg, 0x4, val);
629 }
630
dw_pcie_dbi_ro_wr_en(struct dw_pcie * pci)631 static inline void dw_pcie_dbi_ro_wr_en(struct dw_pcie *pci)
632 {
633 u32 reg;
634 u32 val;
635
636 reg = PCIE_MISC_CONTROL_1_OFF;
637 val = dw_pcie_readl_dbi(pci, reg);
638 val |= PCIE_DBI_RO_WR_EN;
639 dw_pcie_writel_dbi(pci, reg, val);
640 }
641
dw_pcie_dbi_ro_wr_dis(struct dw_pcie * pci)642 static inline void dw_pcie_dbi_ro_wr_dis(struct dw_pcie *pci)
643 {
644 u32 reg;
645 u32 val;
646
647 reg = PCIE_MISC_CONTROL_1_OFF;
648 val = dw_pcie_readl_dbi(pci, reg);
649 val &= ~PCIE_DBI_RO_WR_EN;
650 dw_pcie_writel_dbi(pci, reg, val);
651 }
652
dw_pcie_start_link(struct dw_pcie * pci)653 static inline int dw_pcie_start_link(struct dw_pcie *pci)
654 {
655 if (pci->ops && pci->ops->start_link)
656 return pci->ops->start_link(pci);
657
658 return 0;
659 }
660
dw_pcie_stop_link(struct dw_pcie * pci)661 static inline void dw_pcie_stop_link(struct dw_pcie *pci)
662 {
663 if (pci->ops && pci->ops->stop_link)
664 pci->ops->stop_link(pci);
665 }
666
dw_pcie_get_ltssm(struct dw_pcie * pci)667 static inline enum dw_pcie_ltssm dw_pcie_get_ltssm(struct dw_pcie *pci)
668 {
669 u32 val;
670
671 if (pci->ops && pci->ops->get_ltssm)
672 return pci->ops->get_ltssm(pci);
673
674 val = dw_pcie_readl_dbi(pci, PCIE_PORT_DEBUG0);
675
676 return (enum dw_pcie_ltssm)FIELD_GET(PORT_LOGIC_LTSSM_STATE_MASK, val);
677 }
678
679 #ifdef CONFIG_PCIE_DW_HOST
680 int dw_pcie_suspend_noirq(struct dw_pcie *pci);
681 int dw_pcie_resume_noirq(struct dw_pcie *pci);
682 irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp);
683 int dw_pcie_setup_rc(struct dw_pcie_rp *pp);
684 int dw_pcie_host_init(struct dw_pcie_rp *pp);
685 void dw_pcie_host_deinit(struct dw_pcie_rp *pp);
686 int dw_pcie_allocate_domains(struct dw_pcie_rp *pp);
687 void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus, unsigned int devfn,
688 int where);
689 #else
dw_pcie_suspend_noirq(struct dw_pcie * pci)690 static inline int dw_pcie_suspend_noirq(struct dw_pcie *pci)
691 {
692 return 0;
693 }
694
dw_pcie_resume_noirq(struct dw_pcie * pci)695 static inline int dw_pcie_resume_noirq(struct dw_pcie *pci)
696 {
697 return 0;
698 }
699
dw_handle_msi_irq(struct dw_pcie_rp * pp)700 static inline irqreturn_t dw_handle_msi_irq(struct dw_pcie_rp *pp)
701 {
702 return IRQ_NONE;
703 }
704
dw_pcie_setup_rc(struct dw_pcie_rp * pp)705 static inline int dw_pcie_setup_rc(struct dw_pcie_rp *pp)
706 {
707 return 0;
708 }
709
dw_pcie_host_init(struct dw_pcie_rp * pp)710 static inline int dw_pcie_host_init(struct dw_pcie_rp *pp)
711 {
712 return 0;
713 }
714
dw_pcie_host_deinit(struct dw_pcie_rp * pp)715 static inline void dw_pcie_host_deinit(struct dw_pcie_rp *pp)
716 {
717 }
718
dw_pcie_allocate_domains(struct dw_pcie_rp * pp)719 static inline int dw_pcie_allocate_domains(struct dw_pcie_rp *pp)
720 {
721 return 0;
722 }
dw_pcie_own_conf_map_bus(struct pci_bus * bus,unsigned int devfn,int where)723 static inline void __iomem *dw_pcie_own_conf_map_bus(struct pci_bus *bus,
724 unsigned int devfn,
725 int where)
726 {
727 return NULL;
728 }
729 #endif
730
731 #ifdef CONFIG_PCIE_DW_EP
732 void dw_pcie_ep_linkup(struct dw_pcie_ep *ep);
733 void dw_pcie_ep_linkdown(struct dw_pcie_ep *ep);
734 int dw_pcie_ep_init(struct dw_pcie_ep *ep);
735 int dw_pcie_ep_init_registers(struct dw_pcie_ep *ep);
736 void dw_pcie_ep_deinit(struct dw_pcie_ep *ep);
737 void dw_pcie_ep_cleanup(struct dw_pcie_ep *ep);
738 int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no);
739 int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no,
740 u8 interrupt_num);
741 int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no,
742 u16 interrupt_num);
743 int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep, u8 func_no,
744 u16 interrupt_num);
745 void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar);
746 struct dw_pcie_ep_func *
747 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no);
748 #else
dw_pcie_ep_linkup(struct dw_pcie_ep * ep)749 static inline void dw_pcie_ep_linkup(struct dw_pcie_ep *ep)
750 {
751 }
752
dw_pcie_ep_linkdown(struct dw_pcie_ep * ep)753 static inline void dw_pcie_ep_linkdown(struct dw_pcie_ep *ep)
754 {
755 }
756
dw_pcie_ep_init(struct dw_pcie_ep * ep)757 static inline int dw_pcie_ep_init(struct dw_pcie_ep *ep)
758 {
759 return 0;
760 }
761
dw_pcie_ep_init_registers(struct dw_pcie_ep * ep)762 static inline int dw_pcie_ep_init_registers(struct dw_pcie_ep *ep)
763 {
764 return 0;
765 }
766
dw_pcie_ep_deinit(struct dw_pcie_ep * ep)767 static inline void dw_pcie_ep_deinit(struct dw_pcie_ep *ep)
768 {
769 }
770
dw_pcie_ep_cleanup(struct dw_pcie_ep * ep)771 static inline void dw_pcie_ep_cleanup(struct dw_pcie_ep *ep)
772 {
773 }
774
dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep * ep,u8 func_no)775 static inline int dw_pcie_ep_raise_intx_irq(struct dw_pcie_ep *ep, u8 func_no)
776 {
777 return 0;
778 }
779
dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep * ep,u8 func_no,u8 interrupt_num)780 static inline int dw_pcie_ep_raise_msi_irq(struct dw_pcie_ep *ep, u8 func_no,
781 u8 interrupt_num)
782 {
783 return 0;
784 }
785
dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep * ep,u8 func_no,u16 interrupt_num)786 static inline int dw_pcie_ep_raise_msix_irq(struct dw_pcie_ep *ep, u8 func_no,
787 u16 interrupt_num)
788 {
789 return 0;
790 }
791
dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep * ep,u8 func_no,u16 interrupt_num)792 static inline int dw_pcie_ep_raise_msix_irq_doorbell(struct dw_pcie_ep *ep,
793 u8 func_no,
794 u16 interrupt_num)
795 {
796 return 0;
797 }
798
dw_pcie_ep_reset_bar(struct dw_pcie * pci,enum pci_barno bar)799 static inline void dw_pcie_ep_reset_bar(struct dw_pcie *pci, enum pci_barno bar)
800 {
801 }
802
803 static inline struct dw_pcie_ep_func *
dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep * ep,u8 func_no)804 dw_pcie_ep_get_func_from_ep(struct dw_pcie_ep *ep, u8 func_no)
805 {
806 return NULL;
807 }
808 #endif
809 #endif /* _PCIE_DESIGNWARE_H */
810