xref: /arm-trusted-firmware/plat/imx/imx8m/ddr/dram.c (revision 91f16700b400a8c0651d24a598fc48ee2997a0d7)
1*91f16700Schasinglulu /*
2*91f16700Schasinglulu  * Copyright 2019-2023 NXP
3*91f16700Schasinglulu  *
4*91f16700Schasinglulu  * SPDX-License-Identifier: BSD-3-Clause
5*91f16700Schasinglulu  */
6*91f16700Schasinglulu 
7*91f16700Schasinglulu #include <bl31/interrupt_mgmt.h>
8*91f16700Schasinglulu #include <common/runtime_svc.h>
9*91f16700Schasinglulu #include <lib/mmio.h>
10*91f16700Schasinglulu #include <lib/spinlock.h>
11*91f16700Schasinglulu #include <plat/common/platform.h>
12*91f16700Schasinglulu 
13*91f16700Schasinglulu #include <dram.h>
14*91f16700Schasinglulu #include <gpc.h>
15*91f16700Schasinglulu 
16*91f16700Schasinglulu #define IMX_SIP_DDR_DVFS_GET_FREQ_COUNT		0x10
17*91f16700Schasinglulu #define IMX_SIP_DDR_DVFS_GET_FREQ_INFO		0x11
18*91f16700Schasinglulu 
19*91f16700Schasinglulu struct dram_info dram_info;
20*91f16700Schasinglulu 
21*91f16700Schasinglulu /* lock used for DDR DVFS */
22*91f16700Schasinglulu spinlock_t dfs_lock;
23*91f16700Schasinglulu 
24*91f16700Schasinglulu #if defined(PLAT_imx8mq)
25*91f16700Schasinglulu /* ocram used to dram timing */
26*91f16700Schasinglulu static uint8_t dram_timing_saved[13 * 1024] __aligned(8);
27*91f16700Schasinglulu #endif
28*91f16700Schasinglulu 
29*91f16700Schasinglulu static volatile uint32_t wfe_done;
30*91f16700Schasinglulu static volatile bool wait_ddrc_hwffc_done = true;
31*91f16700Schasinglulu static unsigned int dev_fsp = 0x1;
32*91f16700Schasinglulu 
33*91f16700Schasinglulu static uint32_t fsp_init_reg[3][4] = {
34*91f16700Schasinglulu 	{ DDRC_INIT3(0), DDRC_INIT4(0), DDRC_INIT6(0), DDRC_INIT7(0) },
35*91f16700Schasinglulu 	{ DDRC_FREQ1_INIT3(0), DDRC_FREQ1_INIT4(0), DDRC_FREQ1_INIT6(0), DDRC_FREQ1_INIT7(0) },
36*91f16700Schasinglulu 	{ DDRC_FREQ2_INIT3(0), DDRC_FREQ2_INIT4(0), DDRC_FREQ2_INIT6(0), DDRC_FREQ2_INIT7(0) },
37*91f16700Schasinglulu };
38*91f16700Schasinglulu 
39*91f16700Schasinglulu #if defined(PLAT_imx8mq)
40*91f16700Schasinglulu static inline struct dram_cfg_param *get_cfg_ptr(void *ptr,
41*91f16700Schasinglulu 		void *old_base, void *new_base)
42*91f16700Schasinglulu {
43*91f16700Schasinglulu 	uintptr_t offset = (uintptr_t)ptr & ~((uintptr_t)old_base);
44*91f16700Schasinglulu 
45*91f16700Schasinglulu 	return (struct dram_cfg_param *)(offset + new_base);
46*91f16700Schasinglulu }
47*91f16700Schasinglulu 
48*91f16700Schasinglulu /* copy the dram timing info from DRAM to OCRAM */
49*91f16700Schasinglulu void imx8mq_dram_timing_copy(struct dram_timing_info *from)
50*91f16700Schasinglulu {
51*91f16700Schasinglulu 	struct dram_timing_info *info = (struct dram_timing_info *)dram_timing_saved;
52*91f16700Schasinglulu 
53*91f16700Schasinglulu 	/* copy the whole 13KB content used for dram timing info */
54*91f16700Schasinglulu 	memcpy(dram_timing_saved, from, sizeof(dram_timing_saved));
55*91f16700Schasinglulu 
56*91f16700Schasinglulu 	/* correct the header after copied into ocram */
57*91f16700Schasinglulu 	info->ddrc_cfg = get_cfg_ptr(info->ddrc_cfg, from, dram_timing_saved);
58*91f16700Schasinglulu 	info->ddrphy_cfg = get_cfg_ptr(info->ddrphy_cfg, from, dram_timing_saved);
59*91f16700Schasinglulu 	info->ddrphy_trained_csr = get_cfg_ptr(info->ddrphy_trained_csr, from, dram_timing_saved);
60*91f16700Schasinglulu 	info->ddrphy_pie = get_cfg_ptr(info->ddrphy_pie, from, dram_timing_saved);
61*91f16700Schasinglulu }
62*91f16700Schasinglulu #endif
63*91f16700Schasinglulu 
64*91f16700Schasinglulu #if defined(PLAT_imx8mp)
65*91f16700Schasinglulu static uint32_t lpddr4_mr_read(unsigned int mr_rank, unsigned int mr_addr)
66*91f16700Schasinglulu {
67*91f16700Schasinglulu 	unsigned int tmp, drate_byte;
68*91f16700Schasinglulu 
69*91f16700Schasinglulu 	tmp = mmio_read_32(DRC_PERF_MON_MRR0_DAT(0));
70*91f16700Schasinglulu 	mmio_write_32(DRC_PERF_MON_MRR0_DAT(0), tmp | 0x1);
71*91f16700Schasinglulu 	do {
72*91f16700Schasinglulu 		tmp = mmio_read_32(DDRC_MRSTAT(0));
73*91f16700Schasinglulu 	} while (tmp & 0x1);
74*91f16700Schasinglulu 
75*91f16700Schasinglulu 	mmio_write_32(DDRC_MRCTRL0(0), (mr_rank << 4) | 0x1);
76*91f16700Schasinglulu 	mmio_write_32(DDRC_MRCTRL1(0), (mr_addr << 8));
77*91f16700Schasinglulu 	mmio_write_32(DDRC_MRCTRL0(0), (mr_rank << 4) | BIT(31) | 0x1);
78*91f16700Schasinglulu 
79*91f16700Schasinglulu 	/* Workaround for SNPS STAR 9001549457 */
80*91f16700Schasinglulu 	do {
81*91f16700Schasinglulu 		tmp = mmio_read_32(DDRC_MRSTAT(0));
82*91f16700Schasinglulu 	} while (tmp & 0x1);
83*91f16700Schasinglulu 
84*91f16700Schasinglulu 	do {
85*91f16700Schasinglulu 		tmp = mmio_read_32(DRC_PERF_MON_MRR0_DAT(0));
86*91f16700Schasinglulu 	} while (!(tmp & 0x8));
87*91f16700Schasinglulu 	tmp = mmio_read_32(DRC_PERF_MON_MRR1_DAT(0));
88*91f16700Schasinglulu 
89*91f16700Schasinglulu 	drate_byte = (mmio_read_32(DDRC_DERATEEN(0)) >> 4) & 0xff;
90*91f16700Schasinglulu 	tmp = (tmp >> (drate_byte * 8)) & 0xff;
91*91f16700Schasinglulu 	mmio_write_32(DRC_PERF_MON_MRR0_DAT(0), 0x4);
92*91f16700Schasinglulu 
93*91f16700Schasinglulu 	return tmp;
94*91f16700Schasinglulu }
95*91f16700Schasinglulu #endif
96*91f16700Schasinglulu 
97*91f16700Schasinglulu static void get_mr_values(uint32_t (*mr_value)[8])
98*91f16700Schasinglulu {
99*91f16700Schasinglulu 	uint32_t init_val;
100*91f16700Schasinglulu 	unsigned int i, fsp_index;
101*91f16700Schasinglulu 
102*91f16700Schasinglulu 	for (fsp_index = 0U; fsp_index < 3U; fsp_index++) {
103*91f16700Schasinglulu 		for (i = 0U; i < 4U; i++) {
104*91f16700Schasinglulu 			init_val = mmio_read_32(fsp_init_reg[fsp_index][i]);
105*91f16700Schasinglulu 			mr_value[fsp_index][2*i] = init_val >> 16;
106*91f16700Schasinglulu 			mr_value[fsp_index][2*i + 1] = init_val & 0xFFFF;
107*91f16700Schasinglulu 		}
108*91f16700Schasinglulu 
109*91f16700Schasinglulu #if defined(PLAT_imx8mp)
110*91f16700Schasinglulu 		if (dram_info.dram_type == DDRC_LPDDR4) {
111*91f16700Schasinglulu 			mr_value[fsp_index][5] = lpddr4_mr_read(1, MR12); /* read MR12 from DRAM */
112*91f16700Schasinglulu 			mr_value[fsp_index][7] = lpddr4_mr_read(1, MR14); /* read MR14 from DRAM */
113*91f16700Schasinglulu 		}
114*91f16700Schasinglulu #endif
115*91f16700Schasinglulu 	}
116*91f16700Schasinglulu }
117*91f16700Schasinglulu 
118*91f16700Schasinglulu static void save_rank_setting(void)
119*91f16700Schasinglulu {
120*91f16700Schasinglulu 	uint32_t i, offset;
121*91f16700Schasinglulu 	uint32_t pstate_num = dram_info.num_fsp;
122*91f16700Schasinglulu 
123*91f16700Schasinglulu 	/* only support maximum 3 setpoints */
124*91f16700Schasinglulu 	pstate_num = (pstate_num > MAX_FSP_NUM) ? MAX_FSP_NUM : pstate_num;
125*91f16700Schasinglulu 
126*91f16700Schasinglulu 	for (i = 0U; i < pstate_num; i++) {
127*91f16700Schasinglulu 		offset = i ? (i + 1) * 0x1000 : 0U;
128*91f16700Schasinglulu 		dram_info.rank_setting[i][0] = mmio_read_32(DDRC_DRAMTMG2(0) + offset);
129*91f16700Schasinglulu 		if (dram_info.dram_type != DDRC_LPDDR4) {
130*91f16700Schasinglulu 			dram_info.rank_setting[i][1] = mmio_read_32(DDRC_DRAMTMG9(0) + offset);
131*91f16700Schasinglulu 		}
132*91f16700Schasinglulu #if !defined(PLAT_imx8mq)
133*91f16700Schasinglulu 		dram_info.rank_setting[i][2] = mmio_read_32(DDRC_RANKCTL(0) + offset);
134*91f16700Schasinglulu #endif
135*91f16700Schasinglulu 	}
136*91f16700Schasinglulu #if defined(PLAT_imx8mq)
137*91f16700Schasinglulu 	dram_info.rank_setting[0][2] = mmio_read_32(DDRC_RANKCTL(0));
138*91f16700Schasinglulu #endif
139*91f16700Schasinglulu }
140*91f16700Schasinglulu /* Restore the ddrc configs */
141*91f16700Schasinglulu void dram_umctl2_init(struct dram_timing_info *timing)
142*91f16700Schasinglulu {
143*91f16700Schasinglulu 	struct dram_cfg_param *ddrc_cfg = timing->ddrc_cfg;
144*91f16700Schasinglulu 	unsigned int i;
145*91f16700Schasinglulu 
146*91f16700Schasinglulu 	for (i = 0U; i < timing->ddrc_cfg_num; i++) {
147*91f16700Schasinglulu 		mmio_write_32(ddrc_cfg->reg, ddrc_cfg->val);
148*91f16700Schasinglulu 		ddrc_cfg++;
149*91f16700Schasinglulu 	}
150*91f16700Schasinglulu 
151*91f16700Schasinglulu 	/* set the default fsp to P0 */
152*91f16700Schasinglulu 	mmio_write_32(DDRC_MSTR2(0), 0x0);
153*91f16700Schasinglulu }
154*91f16700Schasinglulu 
155*91f16700Schasinglulu /* Restore the dram PHY config */
156*91f16700Schasinglulu void dram_phy_init(struct dram_timing_info *timing)
157*91f16700Schasinglulu {
158*91f16700Schasinglulu 	struct dram_cfg_param *cfg = timing->ddrphy_cfg;
159*91f16700Schasinglulu 	unsigned int i;
160*91f16700Schasinglulu 
161*91f16700Schasinglulu 	/* Restore the PHY init config */
162*91f16700Schasinglulu 	cfg = timing->ddrphy_cfg;
163*91f16700Schasinglulu 	for (i = 0U; i < timing->ddrphy_cfg_num; i++) {
164*91f16700Schasinglulu 		dwc_ddrphy_apb_wr(cfg->reg, cfg->val);
165*91f16700Schasinglulu 		cfg++;
166*91f16700Schasinglulu 	}
167*91f16700Schasinglulu 
168*91f16700Schasinglulu 	/* Restore the DDR PHY CSRs */
169*91f16700Schasinglulu 	cfg = timing->ddrphy_trained_csr;
170*91f16700Schasinglulu 	for (i = 0U; i < timing->ddrphy_trained_csr_num; i++) {
171*91f16700Schasinglulu 		dwc_ddrphy_apb_wr(cfg->reg, cfg->val);
172*91f16700Schasinglulu 		cfg++;
173*91f16700Schasinglulu 	}
174*91f16700Schasinglulu 
175*91f16700Schasinglulu 	/* Load the PIE image */
176*91f16700Schasinglulu 	cfg = timing->ddrphy_pie;
177*91f16700Schasinglulu 	for (i = 0U; i < timing->ddrphy_pie_num; i++) {
178*91f16700Schasinglulu 		dwc_ddrphy_apb_wr(cfg->reg, cfg->val);
179*91f16700Schasinglulu 		cfg++;
180*91f16700Schasinglulu 	}
181*91f16700Schasinglulu }
182*91f16700Schasinglulu 
183*91f16700Schasinglulu /* EL3 SGI-8 IPI handler for DDR Dynamic frequency scaling */
184*91f16700Schasinglulu static uint64_t waiting_dvfs(uint32_t id, uint32_t flags,
185*91f16700Schasinglulu 				void *handle, void *cookie)
186*91f16700Schasinglulu {
187*91f16700Schasinglulu 	uint64_t mpidr = read_mpidr_el1();
188*91f16700Schasinglulu 	unsigned int cpu_id = MPIDR_AFFLVL0_VAL(mpidr);
189*91f16700Schasinglulu 	uint32_t irq;
190*91f16700Schasinglulu 
191*91f16700Schasinglulu 	irq = plat_ic_acknowledge_interrupt();
192*91f16700Schasinglulu 	if (irq < 1022U) {
193*91f16700Schasinglulu 		plat_ic_end_of_interrupt(irq);
194*91f16700Schasinglulu 	}
195*91f16700Schasinglulu 
196*91f16700Schasinglulu 	/* set the WFE done status */
197*91f16700Schasinglulu 	spin_lock(&dfs_lock);
198*91f16700Schasinglulu 	wfe_done |= (1 << cpu_id * 8);
199*91f16700Schasinglulu 	dsb();
200*91f16700Schasinglulu 	spin_unlock(&dfs_lock);
201*91f16700Schasinglulu 
202*91f16700Schasinglulu 	while (1) {
203*91f16700Schasinglulu 		/* ddr frequency change done */
204*91f16700Schasinglulu 		if (!wait_ddrc_hwffc_done)
205*91f16700Schasinglulu 			break;
206*91f16700Schasinglulu 
207*91f16700Schasinglulu 		wfe();
208*91f16700Schasinglulu 	}
209*91f16700Schasinglulu 
210*91f16700Schasinglulu 	return 0;
211*91f16700Schasinglulu }
212*91f16700Schasinglulu 
213*91f16700Schasinglulu void dram_info_init(unsigned long dram_timing_base)
214*91f16700Schasinglulu {
215*91f16700Schasinglulu 	uint32_t ddrc_mstr, current_fsp;
216*91f16700Schasinglulu 	unsigned int idx = 0;
217*91f16700Schasinglulu 	uint32_t flags = 0;
218*91f16700Schasinglulu 	uint32_t rc;
219*91f16700Schasinglulu 	unsigned int i;
220*91f16700Schasinglulu 
221*91f16700Schasinglulu 	/* Get the dram type & rank */
222*91f16700Schasinglulu 	ddrc_mstr = mmio_read_32(DDRC_MSTR(0));
223*91f16700Schasinglulu 
224*91f16700Schasinglulu 	dram_info.dram_type = ddrc_mstr & DDR_TYPE_MASK;
225*91f16700Schasinglulu 	dram_info.num_rank = ((ddrc_mstr >> 24) & ACTIVE_RANK_MASK) == 0x3 ?
226*91f16700Schasinglulu 		DDRC_ACTIVE_TWO_RANK : DDRC_ACTIVE_ONE_RANK;
227*91f16700Schasinglulu 
228*91f16700Schasinglulu 	/* Get current fsp info */
229*91f16700Schasinglulu 	current_fsp = mmio_read_32(DDRC_DFIMISC(0));
230*91f16700Schasinglulu 	current_fsp = (current_fsp >> 8) & 0xf;
231*91f16700Schasinglulu 	dram_info.boot_fsp = current_fsp;
232*91f16700Schasinglulu 	dram_info.current_fsp = current_fsp;
233*91f16700Schasinglulu 
234*91f16700Schasinglulu #if defined(PLAT_imx8mq)
235*91f16700Schasinglulu 	imx8mq_dram_timing_copy((struct dram_timing_info *)dram_timing_base);
236*91f16700Schasinglulu 	dram_timing_base = (unsigned long) dram_timing_saved;
237*91f16700Schasinglulu #endif
238*91f16700Schasinglulu 	get_mr_values(dram_info.mr_table);
239*91f16700Schasinglulu 
240*91f16700Schasinglulu 	dram_info.timing_info = (struct dram_timing_info *)dram_timing_base;
241*91f16700Schasinglulu 
242*91f16700Schasinglulu 	/* get the num of supported fsp */
243*91f16700Schasinglulu 	for (i = 0U; i < 4U; ++i) {
244*91f16700Schasinglulu 		if (!dram_info.timing_info->fsp_table[i]) {
245*91f16700Schasinglulu 			break;
246*91f16700Schasinglulu 		}
247*91f16700Schasinglulu 		idx = i;
248*91f16700Schasinglulu 	}
249*91f16700Schasinglulu 
250*91f16700Schasinglulu 	/* only support maximum 3 setpoints */
251*91f16700Schasinglulu 	dram_info.num_fsp = (i > MAX_FSP_NUM) ? MAX_FSP_NUM : i;
252*91f16700Schasinglulu 
253*91f16700Schasinglulu 	/* no valid fsp table, return directly */
254*91f16700Schasinglulu 	if (i == 0U) {
255*91f16700Schasinglulu 		return;
256*91f16700Schasinglulu 	}
257*91f16700Schasinglulu 
258*91f16700Schasinglulu 	/* save the DRAMTMG2/9 for rank to rank workaround */
259*91f16700Schasinglulu 	save_rank_setting();
260*91f16700Schasinglulu 
261*91f16700Schasinglulu 	/* check if has bypass mode support */
262*91f16700Schasinglulu 	if (dram_info.timing_info->fsp_table[idx] < 666) {
263*91f16700Schasinglulu 		dram_info.bypass_mode = true;
264*91f16700Schasinglulu 	} else {
265*91f16700Schasinglulu 		dram_info.bypass_mode = false;
266*91f16700Schasinglulu 	}
267*91f16700Schasinglulu 
268*91f16700Schasinglulu 	/* Register the EL3 handler for DDR DVFS */
269*91f16700Schasinglulu 	set_interrupt_rm_flag(flags, NON_SECURE);
270*91f16700Schasinglulu 	rc = register_interrupt_type_handler(INTR_TYPE_EL3, waiting_dvfs, flags);
271*91f16700Schasinglulu 	if (rc != 0) {
272*91f16700Schasinglulu 		panic();
273*91f16700Schasinglulu 	}
274*91f16700Schasinglulu 
275*91f16700Schasinglulu 	if (dram_info.dram_type == DDRC_LPDDR4 && current_fsp != 0x0) {
276*91f16700Schasinglulu 		/* flush the L1/L2 cache */
277*91f16700Schasinglulu 		dcsw_op_all(DCCSW);
278*91f16700Schasinglulu 		lpddr4_swffc(&dram_info, dev_fsp, 0x0);
279*91f16700Schasinglulu 		dev_fsp = (~dev_fsp) & 0x1;
280*91f16700Schasinglulu 	} else if (current_fsp != 0x0) {
281*91f16700Schasinglulu 		/* flush the L1/L2 cache */
282*91f16700Schasinglulu 		dcsw_op_all(DCCSW);
283*91f16700Schasinglulu 		ddr4_swffc(&dram_info, 0x0);
284*91f16700Schasinglulu 	}
285*91f16700Schasinglulu }
286*91f16700Schasinglulu 
287*91f16700Schasinglulu /*
288*91f16700Schasinglulu  * For each freq return the following info:
289*91f16700Schasinglulu  *
290*91f16700Schasinglulu  * r1: data rate
291*91f16700Schasinglulu  * r2: 1 + dram_core parent
292*91f16700Schasinglulu  * r3: 1 + dram_alt parent index
293*91f16700Schasinglulu  * r4: 1 + dram_apb parent index
294*91f16700Schasinglulu  *
295*91f16700Schasinglulu  * The parent indices can be used by an OS who manages source clocks to enabled
296*91f16700Schasinglulu  * them ahead of the switch.
297*91f16700Schasinglulu  *
298*91f16700Schasinglulu  * A parent value of "0" means "don't care".
299*91f16700Schasinglulu  *
300*91f16700Schasinglulu  * Current implementation of freq switch is hardcoded in
301*91f16700Schasinglulu  * plat/imx/common/imx8m/clock.c but in theory this can be enhanced to support
302*91f16700Schasinglulu  * a wide variety of rates.
303*91f16700Schasinglulu  */
304*91f16700Schasinglulu int dram_dvfs_get_freq_info(void *handle, u_register_t index)
305*91f16700Schasinglulu {
306*91f16700Schasinglulu 	switch (index) {
307*91f16700Schasinglulu 	case 0:
308*91f16700Schasinglulu 		 SMC_RET4(handle, dram_info.timing_info->fsp_table[0],
309*91f16700Schasinglulu 			1, 0, 5);
310*91f16700Schasinglulu 	case 1:
311*91f16700Schasinglulu 		if (!dram_info.bypass_mode) {
312*91f16700Schasinglulu 			SMC_RET4(handle, dram_info.timing_info->fsp_table[1],
313*91f16700Schasinglulu 				1, 0, 0);
314*91f16700Schasinglulu 		}
315*91f16700Schasinglulu 		SMC_RET4(handle, dram_info.timing_info->fsp_table[1],
316*91f16700Schasinglulu 			2, 2, 4);
317*91f16700Schasinglulu 	case 2:
318*91f16700Schasinglulu 		if (!dram_info.bypass_mode) {
319*91f16700Schasinglulu 			SMC_RET4(handle, dram_info.timing_info->fsp_table[2],
320*91f16700Schasinglulu 				1, 0, 0);
321*91f16700Schasinglulu 		}
322*91f16700Schasinglulu 		SMC_RET4(handle, dram_info.timing_info->fsp_table[2],
323*91f16700Schasinglulu 			2, 3, 3);
324*91f16700Schasinglulu 	case 3:
325*91f16700Schasinglulu 		 SMC_RET4(handle, dram_info.timing_info->fsp_table[3],
326*91f16700Schasinglulu 			1, 0, 0);
327*91f16700Schasinglulu 	default:
328*91f16700Schasinglulu 		SMC_RET1(handle, -3);
329*91f16700Schasinglulu 	}
330*91f16700Schasinglulu }
331*91f16700Schasinglulu 
332*91f16700Schasinglulu int dram_dvfs_handler(uint32_t smc_fid, void *handle,
333*91f16700Schasinglulu 	u_register_t x1, u_register_t x2, u_register_t x3)
334*91f16700Schasinglulu {
335*91f16700Schasinglulu 	uint64_t mpidr = read_mpidr_el1();
336*91f16700Schasinglulu 	unsigned int cpu_id = MPIDR_AFFLVL0_VAL(mpidr);
337*91f16700Schasinglulu 	unsigned int fsp_index = x1;
338*91f16700Schasinglulu 	uint32_t online_cores = x2;
339*91f16700Schasinglulu 
340*91f16700Schasinglulu 	if (x1 == IMX_SIP_DDR_DVFS_GET_FREQ_COUNT) {
341*91f16700Schasinglulu 		SMC_RET1(handle, dram_info.num_fsp);
342*91f16700Schasinglulu 	} else if (x1 == IMX_SIP_DDR_DVFS_GET_FREQ_INFO) {
343*91f16700Schasinglulu 		return dram_dvfs_get_freq_info(handle, x2);
344*91f16700Schasinglulu 	} else if (x1 < 3U) {
345*91f16700Schasinglulu 		wait_ddrc_hwffc_done = true;
346*91f16700Schasinglulu 		dsb();
347*91f16700Schasinglulu 
348*91f16700Schasinglulu 		/* trigger the SGI IPI to info other cores */
349*91f16700Schasinglulu 		for (int i = 0; i < PLATFORM_CORE_COUNT; i++) {
350*91f16700Schasinglulu 			if (cpu_id != i && (online_cores & (0x1 << (i * 8)))) {
351*91f16700Schasinglulu 				plat_ic_raise_el3_sgi(0x8, i);
352*91f16700Schasinglulu 			}
353*91f16700Schasinglulu 		}
354*91f16700Schasinglulu #if defined(PLAT_imx8mq)
355*91f16700Schasinglulu 		for (unsigned int i = 0; i < PLATFORM_CORE_COUNT; i++) {
356*91f16700Schasinglulu 			if (i != cpu_id && online_cores & (1 << (i * 8))) {
357*91f16700Schasinglulu 				imx_gpc_core_wake(1 << i);
358*91f16700Schasinglulu 			}
359*91f16700Schasinglulu 		}
360*91f16700Schasinglulu #endif
361*91f16700Schasinglulu 		/* make sure all the core in WFE */
362*91f16700Schasinglulu 		online_cores &= ~(0x1 << (cpu_id * 8));
363*91f16700Schasinglulu 		while (1) {
364*91f16700Schasinglulu 			if (online_cores == wfe_done) {
365*91f16700Schasinglulu 				break;
366*91f16700Schasinglulu 			}
367*91f16700Schasinglulu 		}
368*91f16700Schasinglulu 
369*91f16700Schasinglulu 		/* flush the L1/L2 cache */
370*91f16700Schasinglulu 		dcsw_op_all(DCCSW);
371*91f16700Schasinglulu 
372*91f16700Schasinglulu 		if (dram_info.dram_type == DDRC_LPDDR4) {
373*91f16700Schasinglulu 			lpddr4_swffc(&dram_info, dev_fsp, fsp_index);
374*91f16700Schasinglulu 			dev_fsp = (~dev_fsp) & 0x1;
375*91f16700Schasinglulu 		} else {
376*91f16700Schasinglulu 			ddr4_swffc(&dram_info, fsp_index);
377*91f16700Schasinglulu 		}
378*91f16700Schasinglulu 
379*91f16700Schasinglulu 		dram_info.current_fsp = fsp_index;
380*91f16700Schasinglulu 		wait_ddrc_hwffc_done = false;
381*91f16700Schasinglulu 		wfe_done = 0;
382*91f16700Schasinglulu 		dsb();
383*91f16700Schasinglulu 		sev();
384*91f16700Schasinglulu 		isb();
385*91f16700Schasinglulu 	}
386*91f16700Schasinglulu 
387*91f16700Schasinglulu 	SMC_RET1(handle, 0);
388*91f16700Schasinglulu }
389